• Title/Summary/Keyword: voice image

Search Result 293, Processing Time 0.027 seconds

웨이브렛 변환을 이용한 필기체 한글 문자의 세선화 알고리즘 (Thinning algorithm of hand-printed korean character using wavelet transform)

  • 길문호;유기형;박정호;최재호;곽훈성
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 1998년도 하계종합학술대회논문집
    • /
    • pp.745-748
    • /
    • 1998
  • Recently, image and voice processing part is using wavelet transform. We propose thining algorithm using wavelet tranform. Wavelet transform consists of low frequency and high frequency in the spatial and frequency domain. After the wavelet decomposition, more than 90 percents of energy are contained in lowest frequency band. Therefor, for images with large difference of gray value between foreground and background like character images, we can more accurately in the lowest frequency band. Lowest frequency band has wavelet transform significant coefficient(WTS) that is required for the thinning algorithm we proposed Paper [3][5][7][8] can not separate consonants and vowels of korean characters. Becuase korean characters have structural feature. This paper can separate consonants and vowels. Simulation executed low frequency image and data compression can reduce 1/4$^{n}$ with level n. we can redcue time complexity 3/8.

  • PDF

신경 진동자를 이용한 한글 문자의 인식 속도의 개선에 관한 연구 (A study for improvement of Recognition velocity of Korean Character using Neural Oscillator)

  • Kwon, Yong-Bum;Lee, Joon-Tark
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2004년도 춘계학술대회 학술발표 논문집 제14권 제1호
    • /
    • pp.491-494
    • /
    • 2004
  • Neural Oscillator can be applied to oscillatory systems such as the image recognition, the voice recognition, estimate of the weather fluctuation and analysis of geological fluctuation etc in nature and principally, it is used often to pattern recoglition of image information. Conventional BPL(Back-Propagation Learning) and MLNN(Multi Layer Neural Network) are not proper for oscillatory systems because these algorithm complicate Learning structure, have tedious procedures and sluggish convergence problem. However, these problems can be easily solved by using a synchrony characteristic of neural oscillator with PLL(phase-Locked Loop) function and by using a simple Hebbian learning rule. And also, Recognition velocity of Korean Character can be improved by using a Neural Oscillator's learning accelerator factor η$\_$ij/

  • PDF

휴대폰 카메라를 위한 OIS 엑추에이터 개발 (Development of OIS actuator for Mobile Phone Camera)

  • 송명규;백현우;허영준;박노철;박영필;박경수;임수철;박재혁
    • 정보저장시스템학회논문집
    • /
    • 제5권1호
    • /
    • pp.8-13
    • /
    • 2009
  • In this study, to compensate trembling of camera caused by vibration of user's hand, 2-axis voice coil actuator of optical image stabilizer (OIS) is suggested. In consideration of actuating performance, volume of OIS and application of hall sensor, one of concept models is selected and it is optimized to maximize the actuating performance. Two types of mechanisms that have the feasibility of moving in 2-axis and the capability of including the optimized EM circuit are proposed. Finally both types are fabricated and then actuating performance of OIS actuator and behavior of hall sensor are verified through the experiment.

  • PDF

2축 소형 구동기 판 스프링의 동특성 개선 (Dynamic Characteristic Improvement of the Plate Spring in a 2-axis Small Sized Actuator)

  • 박순옥;유정훈;박노철
    • 정보저장시스템학회논문집
    • /
    • 제5권1호
    • /
    • pp.14-18
    • /
    • 2009
  • This paper proposed an optimal plate spring design for the optical image stabilizer in mobile phones. The voice-coil motor (VCM) with plate spring is the smallest, lowest-cost solution for auto focus on the market today and it is also the simplest to implement. The VCM is selected in this paper for auto focusing. However, the design process is complex due to the many design variables coupled to each other and some constraints of each directional motion caused by the characteristics of plate spring. Because of the complex formulation of the design objective, a plate spring design is proposed through the design of experiments to find the optimal design satisfying design constraints.

  • PDF

Human-Computer Interaction Based Only on Auditory and Visual Information

  • Sha, Hui;Agah, Arvin
    • Transactions on Control, Automation and Systems Engineering
    • /
    • 제2권4호
    • /
    • pp.285-297
    • /
    • 2000
  • One of the research objectives in the area of multimedia human-computer interaction is the application of artificial intelligence and robotics technologies to the development of computer interfaces. This involves utilizing many forms of media, integrating speed input, natural language, graphics, hand pointing gestures, and other methods for interactive dialogues. Although current human-computer communication methods include computer keyboards, mice, and other traditional devices, the two basic ways by which people communicate with each other are voice and gesture. This paper reports on research focusing on the development of an intelligent multimedia interface system modeled based on the manner in which people communicate. This work explores the interaction between humans and computers based only on the processing of speech(Work uttered by the person) and processing of images(hand pointing gestures). The purpose of the interface is to control a pan/tilt camera to point it to a location specified by the user through utterance of words and pointing of the hand, The systems utilizes another stationary camera to capture images of the users hand and a microphone to capture the users words. Upon processing of the images and sounds, the systems responds by pointing the camera. Initially, the interface uses hand pointing to locate the general position which user is referring to and then the interface uses voice command provided by user to fine-the location, and change the zooming of the camera, if requested. The image of the location is captured by the pan/tilt camera and sent to a color TV monitor to be displayed. This type of system has applications in tele-conferencing and other rmote operations, where the system must respond to users command, in a manner similar to how the user would communicate with another person. The advantage of this approach is the elimination of the traditional input devices that the user must utilize in order to control a pan/tillt camera, replacing them with more "natural" means of interaction. A number of experiments were performed to evaluate the interface system with respect to its accuracy, efficiency, reliability, and limitation.

  • PDF

유비쿼터스 센서 네트워크 환경을 위한 다중 생체인식 시스템 (Multi-Modal Biometries System for Ubiquitous Sensor Network Environment)

  • 노진수;이강현
    • 전자공학회논문지CI
    • /
    • 제44권4호통권316호
    • /
    • pp.36-44
    • /
    • 2007
  • 본 논문에서는 무선 오디오와 영상 인터페이스를 이용한 스위치 제어 및 인식 등의 다양한 유비쿼터스 센서 네트워크 응용 서비스를 지원하기 위한 음성과 얼굴인식 시스템을 구현하였다. 제안된 시스템은 하드웨어 부분으로 무선 오디오 및 이미지 센서, 심리응용모델을 이용한 음성인식과 주성분 분석법(PCA: Principal Components Analysis)을 이용한 얼굴이식 알고리즘, 그리고 LDPC(Low Density Parity Check)로 구성되어 있다. 제안된 음성과 얼굴인식 시스템은 센서의 효율적인 에너지 사용을 위하여 HOST PC에 삽입된다. 그리고 인식 시스템의 정확도를 개선하기 위하여 전방향 에러 정정 시스템을 구현하였다. 또한, 무선 채널 잡음의 효과적인 제거와 정정을 위하여 테스트환경과 시뮬레이션 계수를 최적화하였다. 결과적으로 사람 음성과 음성센서의 거리가 1.5m 이하일 경우에 FAR과 FRR을 각각 0.126%, 7.5%를 얻었고, 얼굴인식 알고리즘을 2회로 제한하였을 경우, GAR과 FAR을 각각 98.5%와 0.036%를 획득하였다.

YOLO알고리즘을 활용한 시각장애인용 식사보조 시스템 개발 (Development a Meal Support System for the Visually Impaired Using YOLO Algorithm)

  • 이군호;문미경
    • 한국전자통신학회논문지
    • /
    • 제16권5호
    • /
    • pp.1001-1010
    • /
    • 2021
  • 시각이 온전한 사람들은 식사를 할 때 시각에 대한 의존도를 깊게 인지하지 못한다. 그러나 시각장애인은 식단에 어떤 음식이 있는지 알지 못하기 때문에 옆에 있는 보조인이 시각장애인 수저로 음식의 위치를 시계방향 또는 전후좌우 등 일정한 방향으로 설명하여 그릇 위치를 확인한다. 본 논문에서는 시각장애인이 스마트폰의 카메라를 이용하여 자신의 식단을 비추면 각각의 음식 이미지를 인식하여 음성으로 음식의 이름을 알려주는 식사보조 시스템의 개발 내용에 대해 기술한다. 이 시스템은 음식과 식기도구(숟가락)의 이미지를 학습한 YOLO모델을 통해 숟가락이 놓인 음식을 추출해 내고, 이 음식이 무엇인지를 인식하여 이를 음성으로 알려준다. 본 시스템을 통해 시각장애인은 식사보조인의 도움없이 식사를 할 수 있음으로써 자립의지와 만족도를 높일 수 있을 것으로 기대한다.

라이프케어를 위한 이미지메이킹 프로그램 교육의 필요성과 활성화 방안 (A Study on the Educational Necessity and Activation Plan of Image Making Program for Life Care)

  • 윤희
    • 한국엔터테인먼트산업학회논문지
    • /
    • 제14권7호
    • /
    • pp.429-437
    • /
    • 2020
  • 본 연구는 국내 전문대학의 이미지메이킹 프로그램에 관련된 교과과정의 필요성과 교육내용 및 활성화 방안에 대한 실증분석을 통하여 취업을 앞둔 대학생들의 면접지도와 예비 직장인에게 있어서 대인 관계능력 향상을 위한 방안으로 대학 교과과정의 이미지메이킹 프로그램 교육 개발을 위한 기초자료를 제공하고자 시도되었고, 이미지메이킹 교과목을 수강한 광주·전남지역 전문대학교 재학생 400명을 대상으로 설문조사를 실시하였다. 수집된 자료는 SPSS 21.0 프로그램을 사용하여 분석하였다. 연구 결과는 다음과 같다. 첫째, 졸업 후 취업과 예비 직장인의 이미지 관리를 위해 이미지메이킹 프로그램 교과과정이 필요하고, 이미지를 객관적으로 파악하기 위해 다른 사람의 도움이 필요하다고 나타났다. 이미지메이킹 프로그램을 위한 적합한 강의실은 일반 강의실, 시청각 및 멀티미디어실, 전용 강의실 순으로 나타났다. 둘째, 이미지메이킹 프로그램 교육내용의 중요도는 태도(행동), 예절 및 인사법, 표정, 화법, 대인 관계법, 의복, 헤어스타일, 메이크업 순으로 나타났고, 교육내용의 중요 요소는 표정, 메이크업, 헤어스타일, 태도(행동), 대인 관계법, 화법, 의복, 예절 및 인사법 순으로 나타났다. 셋째, 이미지메이킹 프로그램 교육의 영향력 정도는 취업에 미치는 영향력, 대인관계에 미치는 영향력, 생활에 미치는 영향력 순으로 나타났다. 넷째, 이미지메이킹 프로그램 교육 활성화 방안을 분석한 결과 적절한 이미지메이킹 프로그램 교육시점은 2학년부터이고, 교육시간은 한 학기 주 1회, 교과과정 구분은 교양이나 교양선택 과정을 희망하는 것으로 볼 수 있다. 이미지메이킹 프로그램 관련 교과내용은 예절 및 인사법, 메이크업 및 코디 방법, 취업 설명회, 기능 자격 취득을 위한 교육, 국내 기업체 연수 순으로 나타나 예절 및 인사법을 가장 희망하는 것으로 볼 수 있다. 그리고, 이미지메이킹 프로그램 관련 지도자는 전공교수를 희망하고, 교육방법은 시청각 및 멀티미디어를 활용한 매체를 희망한다. 이미지메이킹 프로그램 관련 교육은 화법이나 목소리, 커뮤니케이션에 관해 분석하는 교육, 어울리는 헤어스타일 및 메이크업을 분석하고 실습할 수 있는 교육, 기업의 면접에 관한 교육, 워킹이나 자세교정에 관한 교육 순으로 나타났다. 이상의 결과 본 연구는 이미지메이킹 프로그램 교과과정의 활용방안에 대한 기초자료를 제공하였다.

겸손리더십이 구성원의 발언행동과 혁신행동에 미치는 영향: 감성활용의 매개효과를 중심으로 (The Effect of Humble Leadership on Voice Behavior and Innovative Behavior: Focused on the Mediating Effect of Emotional Regulation)

  • 김종관
    • 산업융합연구
    • /
    • 제20권3호
    • /
    • pp.1-10
    • /
    • 2022
  • 경영진 일부의 오만함, 권력의식 등으로 인해 기업 이미지에 큰 타격을 받고 있다는 연구 결과(Boje et al. 2004)가 제시되고, ESG 경영에 관심이 고조됨으로써 최근 리더의 겸손이 부각되고 있다. 그리고 MZ세대의 등장으로 조직을 이끄는 리더의 겸손은 더욱 더 중요시된다(Morris et al. 2005; Vera, Rodriguez-Lopez, 2004; Owens et al. 2013). 본 논문은 겸손리더십과 발언행동, 혁신행동의 관계에서 감성활용의 매개효과를 실증 분석하고자 하였다. 이를 위해 부산·경남·경북지역의 기업 종업원을 대상으로 2021년 11월~12월 설문조사하여 총 145명의 설문결과를 통해 실증분석하였다. 그 결과 겸손리더십은 발언행동, 혁신행동에 정(+)의 영향을 미치고, 겸손리더십이 발언행동 및 혁신행동의 관계에서 감성활용의 매개효과도 유의미한 결과가 검증되었다. 이를 통해 본 연구는 리더의 핵심역량인 겸손리더십과 감성활용의 관계를 새롭게 조명하고 인과관계를 밝히는 등 연구 범위를 확대하였다. 추후 연구에서는 겸손리더십과 다양한 변수와의 관계를 모색하고 다양한 연구방법으로 그 관계를 규명해보고자 한다.

실시간으로 영상 정보을 이용한 3D 가상공간 문서의 디스플레이 구현 (Implementation of 3D Virtual Space Documents using Image Information in Real Time)

  • 정하영;김태우;최종환
    • 한국정보전자통신기술학회논문지
    • /
    • 제11권1호
    • /
    • pp.40-44
    • /
    • 2018
  • IoT 기반 정보화 사회가 급속하게 발전함에 따라 우리가 일상생활에서 접하는 여러 IT사무 가전과 함께 사무용 소프트웨어가 출시되어 보다 편리한 서비스를 제공하게 되었다. 이는 기록용 문서 작성 외에도 효과적인 기록 발표와 정보 전달을 위한 문서 작성이 매우 중요시 되고 있기 때문이다. 본 논문에서는 실시간으로 효과적인 정보전달을 위한 2D기반 3D 가상공간용 설계를 제시한다. 설계의 일부를 구현한 프로그램은 가상의 3D 공간에서 문서를 편리하게 탐색하거나 보여주면서 음성정보와 시각정보를 동시에 효과적으로 전달할 수 있게 하였다. 제시된 프로그램과 구현을 통하여 문서들을 3D 가상공간에 자동으로 배치하는 방법과, 이를 효과적으로 탐색하는 가상의 카메라 움직임에 대한 설계를 제시하고, 각 문서별로 음성정보를 연결하는 방법을 제시한다.