• 제목/요약/키워드: sign detection and recognition

검색결과 45건 처리시간 0.026초

차량의 위치 파악을 위한 도로안내표지판 인식과 거리정보 습득 방법 (An Recognition and Acquisition method of Distance Information in Direction Signs for Vehicle Location)

  • 김현태;정진성;장영민;조상복
    • 전자공학회논문지
    • /
    • 제54권1호
    • /
    • pp.70-79
    • /
    • 2017
  • 본 논문에서는 도로안내표지판 내의 거리정보를 빠르고 정확하게 획득하는 방법을 제안한다. 제안된 방법은 표지판의 인식, 거리를 획득하기 용이한 전 처리 과정, 거리정보를 습득하는 것으로 구성된다. 표지판의 인식은 여러 가지 잡음을 해결하기 위해 감마 보정을 포함한 색상검출을 사용하였으며, 거리정보를 용이하게 획득하기 위해서 직선 인자를 이용한 기울기 보정과 고속 푸리에변환을 이용한 해상도 보정을 적용하였다. 거리정보를 습득하는 과정은 모폴로지 연산을 통해 영역을 부각하고 레이블링, 템플릿 매칭을 사용하였다. 이러한 과정을 통해 도로안내표지판의 거리정보를 습득하여 분기점까지 남은 거리를 출력하는 시스템을 제안하였다. 결과적으로 연산속도 개선에 중점을 두어 실시간으로 처리할 수 있는 시스템에 사용 가능하며, 그 결과 프레임 당 평균 0.46초의 속도를 가지며, 정확도에서도 유사도 0.65의 수치를 갖는다.

영상처리 기반 숫자 수화표현 인식 알고리즘 (Numeric Sign Language Interpreting Algorithm Based on Hand Image Processing)

  • 권경필;유준혁
    • 대한임베디드공학회논문지
    • /
    • 제14권3호
    • /
    • pp.133-142
    • /
    • 2019
  • The existing auxiliary communicating aids for the hearing-impaired have an inconvenience of using additional expensive sensing devices. This paper presents a hand image detection based algorithm to interpret the sign language of the hearing-impaired. The proposed sign language recognition system exploits the hand image only captured by the camera without using any additional gloves with extra sensors. Based on the hand image processing, the system can perfectly classify several numeric sign language representations. This work proposes a simple lightweight classification algorithm to identify the hand image of the hearing-impaired to communicate with others even further in an environment of complex background. Experimental results show that the proposed system can interpret the numeric sign language quite well with an accuracy of 95.6% on average.

인간의 색상처리방식에 기반한 교통 표지판 영역 추출 시스템 (Traffic Sign Area Detection System Based on Color Processing Mechanism of Human)

  • 최경주;박민철
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.63-72
    • /
    • 2007
  • 교통 표지판은 먼거리에서도 교통 표지라는 것을 쉽게 판별하여 단시간 내에 그 내용을 파악할 수 있어야 한다. 교통 표지판의 도로의 안전 주행에 있어 아주 중요한 객체로 도로 상의 다른 그 무엇보다도 먼저 인간의 시선을 잡아끌어야 한다. 이에 본 논문에서는 인간의 도로 상의 어떤 물체보다도 교통 표지판에 가장 먼저 시선을 집중한다는 가정하에 주의 모듈(Attention Module)을 사용하여 교통 표지판 영역을 추출하는 시스템을 제안하고자 한다. 특히 본 논문에서는 인간의 대상(object)인식과정, 특히 색상처리과정에서 어떠한 특징들이 사용되어지는지를 기존의 정신물리학적, 생리학적 실험결과를 통해 분석하였고, 이 분석결과를 통해 얻어진 특징들을 사용하여 교통 표지판 영역을 추출하였다. 실제 도로위에서 찍은 실영상을 대상으로 실험하였으며, 실험을 통하여 평균 97.8%의 탐지율을 보임을 확인하였다.

SVM과 의사결정트리를 이용한 열악한 환경에서의 교통표지판 인식 알고리즘 (Traffic Sign Recognition using SVM and Decision Tree for Poor Driving Environment)

  • 조영배;나원섭;엄성제;정용진
    • 전기전자학회논문지
    • /
    • 제18권4호
    • /
    • pp.485-494
    • /
    • 2014
  • 교통 표지판 인식(TSR)은 운전자 보조 시스템(ADAS)의 중요한 부분 중의 하나이다. 하지만 일반적인 주간 상황이 아닌 야간, 눈, 비, 안개 등의 열악한 상황에 대한 연구는 주간 상황과 달리 표지판 고유의 색이 정확히 나타나지 않기 때문에 많이 이루어지지 않고 있다. 본 논문에서는, 주간 상황뿐 아니라 열악한 환경에서도 적용 가능한 기계학습 기반의 교통 표지판 인식 알고리즘을 제안한다. 열악한 환경에서는 일반적인 RGB 색 체계 정보를 이용한 방법은 좋은 성능을 보이지 못하므로 표지판의 형태적 특징을 이용하는 HoG 특징점 추출기를 이용하여 표지판의 형태적 특징을 추출하고 SVM 알고리즘을 이용하여 표지판을 검출하였다. 검출한 표지판의 인식에는 Normalized RGB 색 체계의 25개의 참조점을 통한 의사결정트리를 이용하였다. Intel i5 3.4GHz 환경에서 Full HD 해상도의 이미지에 대해 실험한 결과 안개 및 야간 등의 열악한 환경에서의 검출률은 96.4%, 인식률은 94%로 본 논문에서 제안하는 학습기반의 알고리즘이 열악한 환경에서의 표지판 검출 및 인식에 효율적으로 적용이 가능함을 알 수 있다.

영상처리 기반의 운전자 중심 정보처리 기술 개발 (A Driving Information Centric Information Processing Technology Development Based on Image Processing)

  • 양승훈;홍광수;김병규
    • 융합보안논문지
    • /
    • 제12권6호
    • /
    • pp.31-37
    • /
    • 2012
  • 오늘날 자동차 기술의 핵심은 IT 기반 융합 시스템기술로 변화하고 있다. 다양한 IT 기술을 접목하여 운전 중 다양한 상황에 대응하고 또한 운전자의 편의성을 지원하는 기술적 추세를 보이고 있다. 본 논문에서는 운전자의 안전성과 편의성을 증대하기 위해 영상 정보를 기반으로 도로 정보를 검출해 운전자에게 알려주고, 버튼을 직접 손으로 눌러야 하는 물리적 인터페이스를 대체할 비접촉식 인터페이스 기술을 융합한 Augmented Driving System (ADS) 기술을 제안한다. 본 기술은 카메라로부터 입력 받은 영상 정보를 제안된 알고리즘을 통해 앞차와의 거리, 차선, 교통 표지판을 검출하고 차량 내부를 주시하는 카메라와 운전자의 음성을 인식할 마이크를 기반으로 기본 음성인식과 동작인식이 융합된 인터페이스 기술을 제공한다. 이러한 요소 기술들은 운전자가 인지하지 못하더라도 운전자에게 현재의 주행상황을 인지하여 자동으로 알려줌으로써 교통사고 확률을 크게 낮출 수 있을 것이며, 또한 다양한 운전 중 기능 조작을 편리하게 지원함으로써 운전자의 전방 주시에 도움을 줄 수 있다. 본 논문에서 개발된 기술을 통해 테스트를 실시해 본 결과 표지판인식, 차선검출, 앞차와의 거리 검출 등의 인식률이 약 90% 이상이 되었다.

Real-Time Cattle Action Recognition for Estrus Detection

  • Heo, Eui-Ju;Ahn, Sung-Jin;Choi, Kang-Sun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권4호
    • /
    • pp.2148-2161
    • /
    • 2019
  • In this paper, we present a real-time cattle action recognition algorithm to detect the estrus phase of cattle from a live video stream. In order to classify cattle movement, specifically, to detect the mounting action, the most observable sign of the estrus phase, a simple yet effective feature description exploiting motion history images (MHI) is designed. By learning the proposed features using the support vector machine framework, various representative cattle actions, such as mounting, walking, tail wagging, and foot stamping, can be recognized robustly in complex scenes. Thanks to low complexity of the proposed action recognition algorithm, multiple cattle in three enclosures can be monitored simultaneously using a single fisheye camera. Through extensive experiments with real video streams, we confirmed that the proposed algorithm outperforms a conventional human action recognition algorithm by 18% in terms of recognition accuracy even with much smaller dimensional feature description.

홉필드 네트워크와 퍼지 Max-Min 신경망을 이용한 손상된 교통 표지판 인식 (Damaged Traffic Sign Recognition using Hopfield Networks and Fuzzy Max-Min Neural Network)

  • 김광백
    • 한국정보통신학회논문지
    • /
    • 제26권11호
    • /
    • pp.1630-1636
    • /
    • 2022
  • 현재 교통 표지판 인식 기법들은 다양한 날씨, 빛의 변화 등과 같은 외부환경 뿐만 아니라 교통 표지판이 일부 훼손된 경우에는 인식 성능이 저하되는 경우가 발생한다. 따라서 본 논문에서는 이러한 문제점을 개선하기 위하여 홉필드 네트워크와 퍼지 Max-Min 신경망을 이용하여 손상된 교통 표지판의 인식 성능을 개선하는 방법을 제안한다. 제안된 방법은 손상된 교통 표지판에서 특징들을 분석한 후, 그 특징들을 학습 패턴으로 구성하여 퍼지 Max-Min 신경망에 적용하여 1차적으로 교통 표지판의 특징을 분류한다. 1차적 분류된 특징이 있는 학습 영상들을 홉필드 네트워크에 적용하여 손상된 특징을 복원한다. 홉필드 네트워크를 적용하여 복원된 교통 표지판의 특징들을 다시 퍼지 Max-Min 신경망에 적용하여 최종적으로 손상된 교통 표지판을 분류하고 인식한다. 제안된 방법의 성능을 평가하기 위하여 손상된 정도가 다른 다양한 교통 표지판 8개를 적용하여 실험한 결과, 제안된 방법이 퍼지 Max-Min 신경망에 비해 평균적으로 38.76%의 분류 성능이 개선되었다.

자율주행 장난감자동차의 차선 및 신호등 인식 (Lane Detection and Traffic Sign Recognition for a Autonomous RC Toy Car)

  • 박재현;이창우
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2016년도 춘계 종합학술대회 논문집
    • /
    • pp.417-418
    • /
    • 2016
  • 본 논문에서 장난감 자동차를 이용한 차선의 검출과 신호등을 인식하는 자율주행 자동차 시스템에 관한 연구이다. 제안된 시스템에서는 장난감 자동차를 분해하여 라즈베리파이보드와 아두이노보드을 설치하고, 임의로 설치된 차선과 신호등을 인식하여 주행하도록 구현한다. 차선의 검출은 자동차의 상단에 설치된 파이카메라로부터 입력영상을 획득하고, 획득된 영상의 하단부분에서 차선검출을 통하여 자동차의 방향을 제어한다. 또한 트랙의 상단에 설치된 신호등의 초록과 빨강 신호를 검출하고 인식하도록 구현하였다.

  • PDF

A Decision Tree based Real-time Hand Gesture Recognition Method using Kinect

  • Chang, Guochao;Park, Jaewan;Oh, Chimin;Lee, Chilwoo
    • 한국멀티미디어학회논문지
    • /
    • 제16권12호
    • /
    • pp.1393-1402
    • /
    • 2013
  • Hand gesture is one of the most popular communication methods in everyday life. In human-computer interaction applications, hand gesture recognition provides a natural way of communication between humans and computers. There are mainly two methods of hand gesture recognition: glove-based method and vision-based method. In this paper, we propose a vision-based hand gesture recognition method using Kinect. By using the depth information is efficient and robust to achieve the hand detection process. The finger labeling makes the system achieve pose classification according to the finger name and the relationship between each fingers. It also make the classification more effective and accutate. Two kinds of gesture sets can be recognized by our system. According to the experiment, the average accuracy of American Sign Language(ASL) number gesture set is 94.33%, and that of general gestures set is 95.01%. Since our system runs in real-time and has a high recognition rate, we can embed it into various applications.

키넥트를 이용한 손 영역 검출의 정확도 개선 (Detection Accuracy Improvement of Hang Region using Kinect)

  • 김희애;이창우
    • 한국정보통신학회논문지
    • /
    • 제18권11호
    • /
    • pp.2727-2732
    • /
    • 2014
  • 최근 마이크로소프트사의 키넥트(Kinect)를 이용하여 객체를 추적하거나 인식하는 기술에 관한 연구가 활발히 진행되고 있다. 이와 같은 환경에서 손을 검출하고 추적하는 기술은 휴먼-인터페이스 개발의 가장 기본적인 기술이다. 본 논문에서는 키넥트를 이용하여 단색으로 제한되지 않은 환경에서 검출된 손의 경계를 개선하는 방법을 제안한다. 제안된 방법은 키넥트 센서의 깊이영상(Depth Image)에서 추출된 손의 영역과 칼라영상에서 피부색(Skin Color)의 검출 결과를 결합하여 손 영역의 정확도를 개선한다. 제안된 방법으로 손 영역의 검출을 수행한 결과 깊이영상만 사용한 방법 보다 손 영역을 검출하는 정확도를 높일 수 있음을 보였다. 제안된 방법이 수화나 제스처 인식 시스템에 적용된다면 정확도 개선에 많은 기여를 하리라 기대한다.