• 제목/요약/키워드: Source recognition

검색결과 378건 처리시간 0.047초

이동로봇의 자율주행제어에 관한 연구 (A study on Autonomous Travelling Control of Mobile Robot)

  • 이우송;심현석;하언태;김종수
    • 한국산업융합학회 논문집
    • /
    • 제18권1호
    • /
    • pp.10-17
    • /
    • 2015
  • We describe a research about remote control of mobile robot based on voice command in this paper. Through real-time remote control and wireless network capabilities of an unmanned remote-control experiments and Home Security / exercise with an unmanned robot, remote control and voice recognition and voice transmission are possible to transmit on a PC using a microphone to control a robot to pinpoint of the source. Speech recognition can be controlled robot by using a remote control. In this research, speech recognition speed and direction of self-driving robot were controlled by a wireless remote control in order to verify the performance of mobile robot with two drives.

3차원 거리 측정 장치를 이용한 물체 인식 (Object Recognition using 3D Depth Measurement System.)

  • 김성찬;고수홍;김형석
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2006년도 하계종합학술대회
    • /
    • pp.941-942
    • /
    • 2006
  • A depth measurement system to recognize 3D shape of objects using single camera, line laser and a rotating mirror has been investigated. The camera and the light source are fixed, facing the rotating mirror. The laser light is reflected by the mirror and projected to the scene objects whose locations are to be determined. The camera detects the laser light location on object surfaces through the same mirror. The scan over the area to be measured is done by mirror rotation. The Segmentation process of object recognition is performed using the depth data of restored 3D data. The Object recognition domain can be reduced by separating area of interest objects from complex background.

  • PDF

원거리 음성인식 시스템의 잡음 제거 기법에 대한 연구 (Noise removal algorithm for intelligent service robots in the high noise level environment)

  • 우성민;이상훈;정홍
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2007년도 하계종합학술대회 논문집
    • /
    • pp.413-414
    • /
    • 2007
  • Successful speech recognition in noisy environments for intelligent robots depends on the performance of preprocessing elements employed. We propose an architecture that effectively combines adaptive beamforming (ABF) and blind source separation (BSS) algorithms in the spatial domain to avoid permutation ambiguity and heavy computational complexity. We evaluated the structure and assessed its performance with a DSP module. The experimental results of speech recognition test shows that the proposed combined system guarantees high speech recognition rate in the noisy environment and better performance than the ABF and BSS system.

  • PDF

사용자 손 제스처 인식 기반 입체 영상 제어 시스템 설계 및 구현 (Design and Implementation of a Stereoscopic Image Control System based on User Hand Gesture Recognition)

  • 송복득;이승환;최홍규;김성훈
    • 한국정보통신학회논문지
    • /
    • 제26권3호
    • /
    • pp.396-402
    • /
    • 2022
  • 영상 미디어를 위한 사용자 인터랙션은 다양한 형태로 개발되고 있으며, 특히, 인간의 제스처를 활용한 인터랙션이 활발히 연구되고 있다. 그 중에, 손 제스처 인식의 경우 3D Hand Model을 기반으로 실감 미디어 분야에서 휴먼 인터페이스로 활용되고 있다. 손 제스처 인식을 기반으로 한 인터페이스의 활용은 사용자가 미디어 매체에 보다 쉽고 편리하게 접근할 수 있도록 도와준다. 이러한 손 제스처 인식을 활용한 사용자 인터랙션은 컴퓨터 환경 제약 없이 빠르고 정확한 손 제스처 인식 기술을 적용하여 영상을 감상할 수 있어야 한다. 본 논문은 오픈 소스인 미디어 파이프 프레임워크와 머신러닝의 k-NN(K-Nearest Neighbor)을 활용하여 빠르고 정확한 사용자 손 제스처 인식 알고리즘을 제안한다. 그리고 컴퓨터 환경 제약을 최소화하기 위하여 인터넷 서비스가 가능한 웹 서비스 환경 및 가상 환경인 도커 컨테이너를 활용하여 사용자 손 제스처 인식 기반의 입체 영상 제어 시스템을 설계하고 구현한다.

소프트웨어 소스 코드의 저작권 관리를 위한 디지털 라이센스 프로토타입 (Digital License Prototype for Copyright Management of Software Source Code)

  • 차병래;정종근;오수열
    • 인터넷정보학회논문지
    • /
    • 제7권5호
    • /
    • pp.95-108
    • /
    • 2006
  • 국가 경쟁력 제고를 위해서도 디지털콘텐츠에서 확대하여 소프트웨어 소스 코드에 대한 지적재산권 제도와 기술의 정비는 매우 중요한 의미를 지닌다. 이러한 지적재산권 중에서 특히 소프트웨어 보호에 대한 인지는 매우 낮은 편이다. 소프트웨어 소스코드의 소유권 분쟁이 발생 시 소유권을 증명하기 위해서는 원본의 소프트웨어 소스코드를 판별해야만 하는 문제점을 갖고 있다. 또한 소프트웨어가 복제되어도 복잡성과 독해 능력 부족으로 정확한 판정을 내리기가 쉽지 않다. 본 논문에서는 이러한 소프트웨어 복제에 대한 판별을 하나의 개별 코드 단위로 시행하지 않고, 전체 소스가 가지는 구조적 일치성을 기반으로 복제를 판별할 수 있는 XMI 타입의 디지털 라이센스 프로토타입을 개발하였다. 소프트웨어는 구조적으로 Context Free Grammar 기반이며, 그러므로 BNF표기 형태로 표현할 수 있고, 이는 다시 계층 구조로 표현할 수 있기 때문에 가능한 것이다. 그러므로 소프트웨어 소스코드의 구조적 일치성을 비교하기 위한 계층구조를 갖는 소스코드의 아키텍처를 표현할 수 있다.

  • PDF

Emgu CV를 이용한 자동차 번호판 자동 인식 프로그램의 성능 평가에 관한 연구 (Study on Performance Evaluation of Automatic license plate recognition program using Emgu CV)

  • 김남우;허창우
    • 한국정보통신학회논문지
    • /
    • 제20권6호
    • /
    • pp.1209-1214
    • /
    • 2016
  • 자동차 번호판 인식은 대중적인 감시 기술 중의 한 종류로서, 주어진 비디오나 영상 내 광학문자 인식을 수반한다. 번호판 인식은 자동차 번호판 국부화, 번호판의 크기, 차원, 명암대비, 밝기를 조정하는 정규화, 개별문자를 얻어내는 문자 분할, 문자를 인식하는 광학 문자 인식, 번호판의 형태, 크기, 위치 들이 연도별, 지역별로 차이가 있는 번호판들의 데이터베이스를 비교하여 구문 분석을 하는 절차를 거친다. 본 논문에서는 EmguCV를 이용하여 구현한 번호판 감지를 수행하여 위치를 찾아내고, 오픈 소스 광학 문자 인식 엔진으로 잘 알려져 있는 테서렉트 OCR을 이용하여 번호판의 문자를 인식하는 자동 인식 프로그램을 구현하고 번호판의 촬영 각도, 크기, 밝기에 대한 성능평가 결과에 관해 기술하였다.

유비쿼터스 센서 네트워크 환경을 위한 다중 생체인식 시스템 (Multi-Modal Biometries System for Ubiquitous Sensor Network Environment)

  • 노진수;이강현
    • 전자공학회논문지CI
    • /
    • 제44권4호통권316호
    • /
    • pp.36-44
    • /
    • 2007
  • 본 논문에서는 무선 오디오와 영상 인터페이스를 이용한 스위치 제어 및 인식 등의 다양한 유비쿼터스 센서 네트워크 응용 서비스를 지원하기 위한 음성과 얼굴인식 시스템을 구현하였다. 제안된 시스템은 하드웨어 부분으로 무선 오디오 및 이미지 센서, 심리응용모델을 이용한 음성인식과 주성분 분석법(PCA: Principal Components Analysis)을 이용한 얼굴이식 알고리즘, 그리고 LDPC(Low Density Parity Check)로 구성되어 있다. 제안된 음성과 얼굴인식 시스템은 센서의 효율적인 에너지 사용을 위하여 HOST PC에 삽입된다. 그리고 인식 시스템의 정확도를 개선하기 위하여 전방향 에러 정정 시스템을 구현하였다. 또한, 무선 채널 잡음의 효과적인 제거와 정정을 위하여 테스트환경과 시뮬레이션 계수를 최적화하였다. 결과적으로 사람 음성과 음성센서의 거리가 1.5m 이하일 경우에 FAR과 FRR을 각각 0.126%, 7.5%를 얻었고, 얼굴인식 알고리즘을 2회로 제한하였을 경우, GAR과 FAR을 각각 98.5%와 0.036%를 획득하였다.

Multimodal Biometrics Recognition from Facial Video with Missing Modalities Using Deep Learning

  • Maity, Sayan;Abdel-Mottaleb, Mohamed;Asfour, Shihab S.
    • Journal of Information Processing Systems
    • /
    • 제16권1호
    • /
    • pp.6-29
    • /
    • 2020
  • Biometrics identification using multiple modalities has attracted the attention of many researchers as it produces more robust and trustworthy results than single modality biometrics. In this paper, we present a novel multimodal recognition system that trains a deep learning network to automatically learn features after extracting multiple biometric modalities from a single data source, i.e., facial video clips. Utilizing different modalities, i.e., left ear, left profile face, frontal face, right profile face, and right ear, present in the facial video clips, we train supervised denoising auto-encoders to automatically extract robust and non-redundant features. The automatically learned features are then used to train modality specific sparse classifiers to perform the multimodal recognition. Moreover, the proposed technique has proven robust when some of the above modalities were missing during the testing. The proposed system has three main components that are responsible for detection, which consists of modality specific detectors to automatically detect images of different modalities present in facial video clips; feature selection, which uses supervised denoising sparse auto-encoders network to capture discriminative representations that are robust to the illumination and pose variations; and classification, which consists of a set of modality specific sparse representation classifiers for unimodal recognition, followed by score level fusion of the recognition results of the available modalities. Experiments conducted on the constrained facial video dataset (WVU) and the unconstrained facial video dataset (HONDA/UCSD), resulted in a 99.17% and 97.14% Rank-1 recognition rates, respectively. The multimodal recognition accuracy demonstrates the superiority and robustness of the proposed approach irrespective of the illumination, non-planar movement, and pose variations present in the video clips even in the situation of missing modalities.

Object Tracking using Adaptive Template Matching

  • Chantara, Wisarut;Mun, Ji-Hun;Shin, Dong-Won;Ho, Yo-Sung
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제4권1호
    • /
    • pp.1-9
    • /
    • 2015
  • Template matching is used for many applications in image processing. One of the most researched topics is object tracking. Normalized Cross Correlation (NCC) is the basic statistical approach to match images. NCC is used for template matching or pattern recognition. A template can be considered from a reference image, and an image from a scene can be considered as a source image. The objective is to establish the correspondence between the reference and source images. The matching gives a measure of the degree of similarity between the image and the template. A problem with NCC is its high computational cost and occasional mismatching. To deal with this problem, this paper presents an algorithm based on the Sum of Squared Difference (SSD) and an adaptive template matching to enhance the quality of the template matching in object tracking. The SSD provides low computational cost, while the adaptive template matching increases the accuracy matching. The experimental results showed that the proposed algorithm is quite efficient for image matching. The effectiveness of this method is demonstrated by several situations in the results section.

An Automatic Face Hiding System based on the Deep Learning Technology

  • Yoon, Hyeon-Dham;Ohm, Seong-Yong
    • International Journal of Advanced Culture Technology
    • /
    • 제7권4호
    • /
    • pp.289-294
    • /
    • 2019
  • As social network service platforms grow and one-person media market expands, people upload their own photos and/or videos through multiple open platforms. However, it can be illegal to upload the digital contents containing the faces of others on the public sites without their permission. Therefore, many people are spending much time and effort in editing such digital contents so that the faces of others should not be exposed to the public. In this paper, we propose an automatic face hiding system called 'autoblur', which detects all the unregistered faces and mosaic them automatically. The system has been implemented using the GitHub MIT open-source 'Face Recognition' which is based on deep learning technology. In this system, two dozens of face images of the user are taken from different angles to register his/her own face. Once the face of the user is learned and registered, the system detects all the other faces for the given photo or video and then blurs them out. Our experiments show that it produces quick and correct results for the sample photos.