• 제목/요약/키워드: Direction recognition

검색결과 849건 처리시간 0.03초

머신비전 자동검사를 위한 대상객체의 인식방향성 개선 (Recognition Direction Improvement of Target Object for Machine Vision based Automatic Inspection)

  • 홍승범;홍승우;이규호
    • 한국정보통신학회논문지
    • /
    • 제23권11호
    • /
    • pp.1384-1390
    • /
    • 2019
  • 본 논문은 머신비전기반 자동검사를 위한 대상객체의 인식방향성 개선 연구로서, 영상카메라에 의한 자동 비전검사의 과정에서 제한성이 따르는 대상 객체의 인식방향성을 개선하는 방법을 제안한다. 이를 통하여 머신비전 자동검사에서 시험대상물의 위치와 방향에 상관없이 검사대상의 영상을 검출할 수 있게 함으로써 별도 검사지그의 필요성을 배제하고 검사과정의 자동화 레벨을 향상시킨다. 본 연구에서는 검사대상으로서 와이어 하네스 제조과정에서 실제 적용할 수 있는 기술과 방법을 개발하여 실제 시스템으로 구현한 결과를 제시한다. 시스템구현 결과는 공인기관의 평가를 통하여, 정밀도, 검출인식도, 재현률 및 위치조정 성공률에서 모두 성공적인 측정결과를 얻었고, 당초 설정하였던 10종류의 컬러구별 능력, 1초 이내 검사시간, 4개 자동모드 설정 등에서도 목표달성을 확인하였다.

획 정보를 이용한 한글문자와 펜 제스처 인식 시스템의 설계 및 구현 (Design and Implementation for Korean Character and Pen-gesture Recognition System using Stroke Information)

  • 오준택;김욱현
    • 정보처리학회논문지B
    • /
    • 제9B권6호
    • /
    • pp.765-774
    • /
    • 2002
  • 본 논문은 멀티미디어 단말기, PDA등에 적용할 목적으로 획 정보를 이용한 한글문자와 펜 제스처 인식 시스템을 설계 및 구현한다. 한글문자 인식은 다양한 필체 유형을 수용하기 위해 한글의 특성정보와 획 정보 등을 기반으로 구축한 한글데이터베이스를 이용하며 빠른 자소분리를 수행하기 위해서 획간의 위치정보를 이용한 순차적 자소분리와 자소를 이루는 획 수의 변경에 의한 백트래킹 자소분리를 이용한다. 펜 제스처 인식은 정의한 15가지 유형의 펜 제스처에 대해서 민감한 획 정보가 아닌 획 내의 교차수, 방향변화, 방향벡터, 방향코드의 개수, 위치관계, 획에 대한 시작점과 끝점간의 거리 비율정보 등을 분류특징으로 이용함으로써 강건한 인식과 빠른 처리속도를 가진다. 제안한 방법에 의해 구현한 인식 시스템은 실시간으로 수행하며 실험결과, 높은 인식률과 빠른 처리속도를 보였다.

OpenCV를 이용한 도로표지 영상에서의 방향정보 자동인식 (Automatic Recognition of Direction Information in Road Sign Image Using OpenCV)

  • 김기홍;정규수;윤준희
    • 한국측량학회지
    • /
    • 제31권4호
    • /
    • pp.293-300
    • /
    • 2013
  • 도로표지는 운전자들에게 유용한 정보들을 제공함으로서 안전하고 원활한 교통을 확보하기 위한 중요한 시설물이다. 도로표지를 체계적으로 관리하기 위해서는 도로표지 내용에 대한 DB구축이 필요하며 이를 위한 작업은 거의 수동으로 진행되고 있어 많은 시간과 비용이 소요된다. 본 연구에서는 도로표지 영상에서 방향정보를 자동으로 인식 추출하기 위한 알고리즘을 제안하였다. 또한 OpenCV를 이용해 이를 구현하였으며 도로표지 영상에 적용하였다. 방향정보의 자동추출을 위해, 영상 개선, 영상 이진화, 방향지시 도형 영역 추출, 특징점 추출, 템플릿 영상정합 등의 영상처리 기법을 코딩하여 적용하였으며 이를 통해 방향정보 자동 인식의 가능성을 확인하였다.

신경망을 이용한 지문인식 임베디드 시스템 설계에 관한 연구 (Study on Design of Fingerprint Recognition Embedded System using Neural Network)

  • 이재현;김동한
    • 한국정보통신학회논문지
    • /
    • 제10권4호
    • /
    • pp.775-782
    • /
    • 2006
  • 지문인식 알고리즘에서 전처리 과정 중 방향성이 추출된 지문에서 블록을 형성하여 각 블록에서의 방향성 특징들을 신경회로망의 입력패턴으로 사용하여 학습을 시켜, 특이점을 추출하여 매칭에 이용했다. 이를 바탕으로 지문인식 임베디드 시스템을 설계하여 다양한 응용 시스템에 이용될 수 있도록 하기 위해 컨트롤 보드와 시리얼 통신을 통해 테스트한 결과 충분한 신뢰성을 입증할 수 있었다.

Study on Design of Fingerprint Recognition Embedded System using Neural Network

  • Kim, Dong Han;Kim, Jung Hoon;Lee, Sang Hae
    • International Journal of Fuzzy Logic and Intelligent Systems
    • /
    • 제4권3호
    • /
    • pp.347-352
    • /
    • 2004
  • We generated blocks from the direction-extracted fingerprint during the pre-process of the fingerprint recognition algorithm and performed training by using the direction minutiae of each block as the input pattern of the neural network, so that we extracted the core points to use in the matching. Based on this, we designed the fingerprint recognition embedded system and tested it by using the control board and the serial communication to utilize it for a variety of application systems. As a result, we can verify the reliance satisfactorily.

차영상 엔트로피를 이용한 시선 인식 시스템의 구현 (An Implementation of Gaze Direction Recognition System using Difference Image Entropy)

  • 이규범;정동근;홍광석
    • 정보처리학회논문지B
    • /
    • 제16B권2호
    • /
    • pp.93-100
    • /
    • 2009
  • 본 논문에서는 차영상 엔트로피 기반의 시선 인식 시스템을 제안한다. 차영상 엔트로피는 현재 입력된 영상과 참조 영상 또는 시선의 위치별 평균 영상들로부터 차영상을 획득하고, -255부터 +255까지의 히스토그램 빈도수를 이용하여 계산한다. 차영상 엔트로피 기반의 시선 인식방법은 2가지 방법이다. 1) 첫 번째 방법은 현재 입력된 영상과 시선 위치별 45개의 평균 영상들과의 차영상 엔트로피를 계산하여 현재 응시하고 있는 방향을 인식하고, 2) 두 번째 방법은 현재 입력된 영상과 45개의 참조 영상들과의 차영상 엔트로피를 계산하여 현재의 응시 방향을 인식한다. 참조 영상은 네 방향의 영상을 입력받아 시선 위치별 45개의 평균 영상을 이용하여 생성한다. 제안한 시스템의 성능을 평가하기 위해 PCA 기반의 시선 인식 시스템과 비교 실험을 하였고, 인식 방향은 좌상, 우상, 좌하, 우하 네 방향으로 하였으며, 45개의 참조 영상 또는 평균영상에 대하여 인식 영역을 변경하여 실험하였다. 실험 결과 차영상 엔트로피는 97.00%, PCA는 95.50%의 인식률을 보여 차영상 엔트로피 기반의 시스템이 PCA 기반의 시스템보다 1.50% 더 높은 인식률을 나타내었다.

Human Activity Recognition Using Spatiotemporal 3-D Body Joint Features with Hidden Markov Models

  • Uddin, Md. Zia;Kim, Jaehyoun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제10권6호
    • /
    • pp.2767-2780
    • /
    • 2016
  • Video-based human-activity recognition has become increasingly popular due to the prominent corresponding applications in a variety of fields such as computer vision, image processing, smart-home healthcare, and human-computer interactions. The essential goals of a video-based activity-recognition system include the provision of behavior-based information to enable functionality that proactively assists a person with his/her tasks. The target of this work is the development of a novel approach for human-activity recognition, whereby human-body-joint features that are extracted from depth videos are used. From silhouette images taken at every depth, the direction and magnitude features are first obtained from each connected body-joint pair so that they can be augmented later with motion direction, as well as with the magnitude features of each joint in the next frame. A generalized discriminant analysis (GDA) is applied to make the spatiotemporal features more robust, followed by the feeding of the time-sequence features into a Hidden Markov Model (HMM) for the training of each activity. Lastly, all of the trained-activity HMMs are used for depth-video activity recognition.

지능형 휠체어를 위한 시선 인식 인터페이스 개발 (Gaze Recognition Interface Development for Smart Wheelchair)

  • 박세현
    • 재활복지공학회논문지
    • /
    • 제5권1호
    • /
    • pp.103-110
    • /
    • 2011
  • 본 논문에서는 지능형 휠체어를 위한 시선 인식 인터페이스에 대해 제안한다. 시선 인식 인터페이스는 조이스틱을 움직이기 힘든 중증 장애인을 위해 시선 인식 및 추적을 이용하여 전동휠체어를 움직일 수 있게 하는 사용자 인터페이스이다. 지능형 휠체어는 시선인식 및 추적 모듈, 사용자 인터페이스, 장애물 회피 모듈, 모터 제어 모듈, 초음파 센서 모듈로 구성된다. 시선인식 및 추적 모듈은 적외선 카메라와 두개의 광원으로 사용자 눈의 각막 표면에 두 개의 반사점을 생성하고, 중심점을 구한 뒤, 동공의 중심점과 두 반사점의 중심을 이용하여 시선을 인식하고 추적 한다. 제안된 방법의 시선 인식 인터페이스는 실험을 통해 시선을 이용하여 지능형 휠체어에 명령을 하달하고 지능형 휠체어가 임의로 설치된 장애물을 감지하고 정확하게 장애물을 회피 할 수 있음을 보였다.

온라인 한글자소 인식시스템의 구성에 관한 연구 (A Study on On-line Recognition System of Korean Characters)

  • 최석;김길중;허만탁;이종혁;남기곤;윤태훈;김재창;이양성
    • 전자공학회논문지B
    • /
    • 제30B권9호
    • /
    • pp.94-105
    • /
    • 1993
  • In this paper propose a Koaren character recognition system using a neural network is proposed. This system is a multilayer neural network based on the masking field model which consists of a input layer, four feature extraction layers which extracts type, direction, stroke, and connection features, and an output layer which gives us recognized character codes. First, 4x4 subpatterns of an NxN character pattern stored in the input buffer are applied into the feature extraction layers sequentially. Then, each of feature extraction layers extracts sequentially features such as type, direction, stroke, and connection, respectively. Type features for direction and connection are extracted by the type feature extraction layer, direction features for stroke by the direction feature extraction layer and stroke and connection features for stroke by the direction feature extraction layer and stroke and connection features for the recongnition of character by the stroke and the connection feature extractions layers, respectively. The stroke and connection features are saved in the sequential buffer layer sequentially and using these features the characters are recognized in the output layer. The recognition results of this system by tests with 8 single consonants and 6 single vowels are promising.

  • PDF

얼굴 특징영역상의 광류를 이용한 표정 인식 (Recognition of Hmm Facial Expressions using Optical Flow of Feature Regions)

  • 이미애;박기수
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제32권6호
    • /
    • pp.570-579
    • /
    • 2005
  • 표정인식 연구는 맨$\cdot$머신 인터페이스 개발, 개인 식별, 가상모델에 의한 표정복원 등 응용가치의 무한한 가능성과 함께 다양한 분야에서 연구되고 있다 본 논문에서는 인간의 기본정서 중 행복, 분노, 놀람, 슬픔에 대한 4가지 표정을 얼굴의 강체 움직임이 없는 얼굴동영상으로부터 간단히 표정인식 할 수 있는 방법을 제안한다. 먼저, 얼굴 및 표정을 결정하는 요소들과 각 요소의 특징영역들을 색상, 크기 그리고 위치정보를 이용하여 자동으로 검출한다. 다음으로 Gradient Method를 이용하여 추정한 광류 값으로 특징영역들에 대한 방향패턴을 결정한 후, 본 연구가 제안한 방향모델을 이용하여 방향패턴에 대한 매칭을 행한다. 각 정서를 대표하는 방향모델과의 패턴 매칭에서 그 조합 값이 최소를 나타내는 부분이 가장 유사한 정서임을 판단하고 표정인식을 행한다. 마지막으로 실험을 통하여 본 논문의 유효성을 확인한다.