• 제목/요약/키워드: adaboost

검색결과 172건 처리시간 0.024초

조명의 변화가 심한 환경에서 자동차 부품 유무 비전검사 방법 (Auto Parts Visual Inspection in Severe Changes in the Lighting Environment)

  • 김기석;박요한;박종섭;조재수
    • 제어로봇시스템학회논문지
    • /
    • 제21권12호
    • /
    • pp.1109-1114
    • /
    • 2015
  • This paper presents an improved learning-based visual inspection method for auto parts inspection in severe lighting changes. Automobile sunroof frames are produced automatically by robots in most production lines. In the sunroof frame manufacturing process, there is a quality problem with some parts such as volts are missed. Instead of manual sampling inspection using some mechanical jig instruments, a learning-based machine vision system was proposed in the previous research[1]. But, in applying the actual sunroof frame production process, the inspection accuracy of the proposed vision system is much lowered because of severe illumination changes. In order to overcome this capricious environment, some selective feature vectors and cascade classifiers are used for each auto parts. And we are able to improve the inspection accuracy through the re-learning concept for the misclassified data. The effectiveness of the proposed visual inspection method is verified through sufficient experiments in a real sunroof production line.

칼라 특성과 선택적 관심영역을 이용한 속도 표지판 인식 알고리즘 (Algorithm for Speed Sign Recognition Using Color Attributes and Selective Region of Interest)

  • 박기훈;권오설
    • 방송공학회논문지
    • /
    • 제23권1호
    • /
    • pp.93-103
    • /
    • 2018
  • 본 논문에서는 실 도로 영상에서 속도 표지판을 인식하는 방법을 제안한다. 기존의 표지판 인식의 방법들은 조명 변화에 민감하고 반복적인 형태 특징까지 추출하여 인식 성능이 감소하는 단점이 있다. 제안한 방법은 가중치가 적용된 YUV 색상 모델을 이용함으로써 속도 표지판의 색 특성을 강조하였으며 또한 표지판 후보 영역에 관심영역을 국부적으로 제한함으로써 인식 성능을 개선하였다. 이때, 검출과 인식을 위해서는 하 특징을 이용한 아다부스트 분류기를 사용하였다. 제안한 방법을 다양한 속도 및 환경하에서 실험한 결과 기존의 방법들보다 인식의 성능이 향상되었음을 확인하였다.

컨볼루션 신경망을 이용한 CCTV 영상 기반의 성별구분 (CCTV Based Gender Classification Using a Convolutional Neural Networks)

  • 강현곤;박장식;송종관;윤병우
    • 한국멀티미디어학회논문지
    • /
    • 제19권12호
    • /
    • pp.1943-1950
    • /
    • 2016
  • Recently, gender classification has attracted a great deal of attention in the field of video surveillance system. It can be useful in many applications such as detecting crimes for women and business intelligence. In this paper, we proposed a method which can detect pedestrians from CCTV video and classify the gender of the detected objects. So far, many algorithms have been proposed to classify people according the their gender. This paper presents a gender classification using convolutional neural network. The detection phase is performed by AdaBoost algorithm based on Haar-like features and LBP features. Classifier and detector is trained with data-sets generated form CCTV images. The experimental results of the proposed method is male matching rate of 89.9% and the results shows 90.7% of female videos. As results of simulations, it is shown that the proposed gender classification is better than conventional classification algorithm.

강인한 손가락 끝 추출과 확장된 CAMSHIFT 알고리즘을 이용한 자연스러운 Human-Robot Interaction을 위한 손동작 인식 (A Robust Fingertip Extraction and Extended CAMSHIFT based Hand Gesture Recognition for Natural Human-like Human-Robot Interaction)

  • 이래경;안수용;오세영
    • 제어로봇시스템학회논문지
    • /
    • 제18권4호
    • /
    • pp.328-336
    • /
    • 2012
  • In this paper, we propose a robust fingertip extraction and extended Continuously Adaptive Mean Shift (CAMSHIFT) based robust hand gesture recognition for natural human-like HRI (Human-Robot Interaction). Firstly, for efficient and rapid hand detection, the hand candidate regions are segmented by the combination with robust $YC_bC_r$ skin color model and haar-like features based adaboost. Using the extracted hand candidate regions, we estimate the palm region and fingertip position from distance transformation based voting and geometrical feature of hands. From the hand orientation and palm center position, we find the optimal fingertip position and its orientation. Then using extended CAMSHIFT, we reliably track the 2D hand gesture trajectory with extracted fingertip. Finally, we applied the conditional density propagation (CONDENSATION) to recognize the pre-defined temporal motion trajectories. Experimental results show that the proposed algorithm not only rapidly extracts the hand region with accurately extracted fingertip and its angle but also robustly tracks the hand under different illumination, size and rotation conditions. Using these results, we successfully recognize the multiple hand gestures.

얼굴 검출과 인식 및 모션추적에 의한 증강현실 구현 (Implementing Augmented Reality By Using Face Detection, Recognition And Motion Tracking)

  • 이희만
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권1호
    • /
    • pp.97-104
    • /
    • 2012
  • 내추럴 유저 인터페이스 기술(NUI)의 발달은 게임이나 컴퓨터 사용 및 기타 전자기기 사용법에 일대 변화를 가져오고 있다. 본 논문에서는 스마트 폰 사용자의 얼굴을 식별하고 또한 얼굴 움직임 동작을 감지하여 증강현실을 구현한다. 모바일 기기의 전면 카메라를 이용하여 얼굴의 위치를 Viola-Jones방법을 사용하여 검색하고 검색한 얼굴의 식별 및 움직임 검출을 Eigenface 알고리즘을 사용하며, 식별된 사람에 대응되는 그래픽스 오브젝트를 GPS나 가속도 센서 등의 정보와 후면 카메라의 영상과 함께 합성하는 증강현실 시스템을 구현한다. 증강현실 시스템은 모바일 기기의 성능에 적합한 알고리즘 및 방법으로 구현하여야 한다.

생체기반 GMM Supervector Kernel을 이용한 운전자검증 기술 (Driver Verification System Using Biometrical GMM Supervector Kernel)

  • 김형국
    • 한국ITS학회 논문지
    • /
    • 제9권3호
    • /
    • pp.67-72
    • /
    • 2010
  • 본 논문에서는 음성과 얼굴 정보를 분석하여 자동차환경에서 운전자를 검증하는 기술을 소개한다. 음성정보를 이용한 화자검증을 위해서는 잘 알려진 Mel-scale Frequency Cepstral Coefficients(MFCCs)를 음성 특징으로 사용하였으며, 동영상을 이용한 얼굴검증에 대해서는 AdaBoost를 이용하여 검출된 얼굴 영역에 대해 주성분 분석을 수행하여 데이터의 크기가 현저히 줄어든 특징벡터를 추출하였다. 기존의 화자검증 방식에 비해 본 논문에서는 추출된 음성 및 얼굴 특징들을 Gaussian Mixture Models(GMM)-Supervector기반의 Support Vector Machine(SVM)커넬 방식에 적용하여 운전자의 음성과 얼굴을 효과적으로 검증하는 방식을 제안하였다. 실험결과 제안한 방법은 단순한 GMM 방식이나 SVM 방식보다 운전자 검증성능을 향상시킴을 알 수 있었다.

지능형 자동차를 위한 비디오 기반의 교통 신호등 인식 시스템 (A Video based Traffic Light Recognition System for Intelligent Vehicles)

  • 추연호;이복주;최영규
    • 반도체디스플레이기술학회지
    • /
    • 제14권2호
    • /
    • pp.29-34
    • /
    • 2015
  • Traffic lights are common in cities and are important cues for the path planning of intelligent vehicles. In this paper, we propose a robust and efficient algorithm for recognizing traffic lights from video sequences captured by a low cost off-the-shelf camera. Instead of using color information for recognizing traffic lights, a shape based approach is adopted. In learning and detection phase, Histogram of Oriented Gradients (HOG) feature is used and a cascade classifier based on Adaboost algorithm is adopted as the main classifier for locating traffic lights. To decide the color of the traffic light, a technique based on histogram analysis in HSV color space is utilized. Experimental results on several video sequences from typical urban environment prove the effectiveness of the proposed algorithm.

입 추적을 이용한 로봇 원격 제어 시스템 (Hands-free Robot Control System Using Mouth Tracking)

  • 왕량;서영철;민하즈;이필규
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(C)
    • /
    • pp.405-408
    • /
    • 2011
  • In this paper, we propose a robot remote control system based on mouth tracking. The main idea behind the work is to help disabled people who cannot operate a joystick or keyboard to control a robot with their hands. The mouth detection method in this paper is mainly based on the Adaboost feature detection approach. By using the proposed new Haar-like features for detecting the corner of mouth, the speed and accuracy of detection are improved. Combined with the Kalman filter, a continuous and accurate mouth tracking has been achieved. Meanwhile, the gripping commands of the robot manipulator were also achieved by the recognition of the user.s mouth shape, such as 'pout mouth' or 'grin mouth'. To assess the validity of the method, a mouth detection experiment and a robot cargo transport experiment were applied. The result indicated that the system can realize a quick and accurate mouse tracking; and the operation of the robot worked successfully in moving and bringing back items.

TV 제어 메뉴의 다국적 언어 인식을 위한 특징 선정 기법 (A Feature Selection Technique for Multi-lingual Character Recognition)

  • 강근석;박현정;김호준
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2005년도 학술대회
    • /
    • pp.199-202
    • /
    • 2005
  • TV OSD(On Screen Display) 메뉴 자동검증 시스템에서 다국적 언어의 문자 인식은 표준패턴의 구조적 분석이 쉽지 않을 뿐만 아니라 학습패턴 집합의 규모와 특징의 수가 증가함으로 인하여 특징추출 및 인식 과정에서 방대한 계산량이 요구된다. 이에 본 연구에서는 학습 데이터에 포함되는 다량의 특징 집합으로부터 인식에 필요한 효과적인 특징을 선별함으로써 패턴 분류기의 효율성을 개선하기 위한 방법론을 고찰한다. 이를 위하여 수정된 형태의 Adaboost 기법을 제안하고 이를 적용한 실험 결과로부터 그 유용성을 고찰한다. 제안된 알고리즘은 초기의 특징 집합을 취약한 성능을 갖는 다수의 분류기(classifier)로서 고려하며, 이로부터 반복학습을 통하여 개선된 분류기를 점진적으로 선별해 나가게 된다. 학습의 원리는 주어진 학습패턴 집합에 기초하여 일종의 교사학습(supervised learning) 방식으로 이루어진다. 각 패턴에 할당된 가중치 값은 각 단계에서 산출되는 분류결과에 따라 적응적으로 수정되어 반복학습이 진행됨에 따라 점차 보완적 성능을 갖는 분류기를 선택할 수 있게 한다. 즉, 주어진 각 학습패턴에 대하여 초기에 균등한 가중치가 부여되며, 반복학습의 각 단계에서 적용되는 분류기의 출력을 분석하여 오분류된 패턴의 가중치 분포를 증가시켜 나간다. 본 연구에서는 실제 응용으로서 OSD 메뉴검증 시스템을 대상으로 제안된 이론을 적용하고 그 타당성을 평가한다.

  • PDF

실시간 차선 이탈 경고 및 Smart Night Vision을 위한 HDR Camera Platform 구현에 관한 연구 (A Study on Implementation for Real-time Lane Departure Warning System & Smart Night Vision Based on HDR Camera Platform)

  • 박화범;박지오;김영길
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2017년도 춘계학술대회
    • /
    • pp.123-126
    • /
    • 2017
  • 최근 발전되고 있는 정보통신 IT기술은 자동차 시장에도 큰 영향을 미치며 발전하고 있다. 근래에는 운전자의 안전성과 편의성을 위해 IT 기술이 접목된 장치들이 장착 되고 있다. 하지만 편의성이 증가된 장점과 함께 운전자의 주의 분산으로 인해 교통사고를 증가시키는 단점도 가져오게 되었다. 이러한 사고를 미연에 방지하기 위해 여러 방식과 종류의 안전시스템 개발이 필요하다. 본 논문에서는 Radar Sensor나 Stereo Video 영상을 이용하지 않고 보행자 및 차선 이탈 경보를 알려주는 다기능 카메라 주행 안전 System을 구현하는 방법과 차선 이탈 경보 Software 결과 분석에 관한 연구를 제안하고 한다.

  • PDF