• 제목/요약/키워드: Camera Performance

검색결과 1,828건 처리시간 0.029초

빌보드 스윕 스테레오 시차정합 알고리즘을 이용한 차량 검출 및 추적 (Vehicle Detection and Tracking using Billboard Sweep Stereo Matching Algorithm)

  • 박민우;원광희;정순기
    • 한국멀티미디어학회논문지
    • /
    • 제16권6호
    • /
    • pp.764-781
    • /
    • 2013
  • 본 논문에서는 시차영상 생성과 레이블링(labeling)을 동시에 수행하는 빌보드 스윕 스테레오 시차정합 알고리즘을 적용하고, 두 단계로 구성된 복합 가설생성(hypothesis generation) 단계를 적용함으로서 거짓알림(false alarm)을 줄이고, 차량 검출의 정확도를 높이는 방법을 제안한다. 먼저 차량의 정면에 장착된 두 대의 카메라를 이용하여 영상을 획득하고, 이 영상을 사용하여 빌보드 스윕 스테레오 시차정합 알고리즘을 수행하여 지면과 배경이 제거된 장애물(obstacle)만이 존재하는 특수한 형태의 시차영상을 생성한다. 이렇게 생성된 지면과 배경이 제거된 레이블링된 시차영상을 이용하여 차량 검출 및 추적을 수행한다. 차량 검출 및 추적단계는 크게 세 단계로 나눠진다. 첫 번째 단계는 학습 단계로서 학습데이터로부터 Gabor필터를 사용해서 특징점을 추출하고, 추출된 특징점을 학습한 뒤 서포트 벡터머신 분류기를 생성하는 단계이다. 두 번째 단계는 스테레오 카메라의 영상 중 주 카메라의 영상으로부터 에지 정보를 추출하고, 지면과 배경이 제거된 시차 영상으로부터 얻어진 시차정보를 이용해서 차량이 존재하는 후보영역을 뽑은 뒤 서포트 벡터머신 분류기를 사용하여 차량을 검출하는 단계이다. 마지막 단계는 차량 추적단계로서 검출이 완료된 차량들은 다음 프레임에서 템플릿 매칭을 수행하여 추적한다. 이는 추적에 성공할 경우 다음 프레임의 차량 검출시 후보영역에서 배제함으로서 전체적인 차량 검출 성능을 향상시킨다.

깊이정보를 이용한 실시간 손 영역 검출 및 추적 (Real-time Hand Region Detection and Tracking using Depth Information)

  • 주성일;원선희;최형일
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제1권3호
    • /
    • pp.177-186
    • /
    • 2012
  • 본 논문에서는 실시간 손동작 분석을 위한 깊이정보 기반 손 영역 검출 및 추적 방법을 제안한다. 이를 위해 손 영역 검출단계에서는 깊이정보만을 이용하여 손 영역의 특징인 형태모델을 생성하고, 검출 시 움직임 정보와 영역 확장(Region Growing)을 통해 객체를 추출한다. 추출된 객체는 사전에 생성된 형태모델과 크기정보를 분석하여 최종 손 영역으로 판정한다. 판정된 손 객체는 추적단계에서 중심점 전이 과정을 통해 이전 중심점과의 최근접점을 획득하고, 최근접점으로부터 영역 확장과 깊이기반 적응적 평균 이동 기법(DAM-Shift)을 통해 새로운 중심점을 검출하여 추적한다. 마지막으로 성능 검증을 위해 다양한 손 모양과 속도 및 위치에 대한 다양한 환경에서 실험하고, 검출속도와 추적된 궤적의 정량적, 정성적 분석을 통해 제안하는 방법의 효율성을 입증한다.

스테레오 비전기반의 컬럼 검출과 조감도 맵핑을 이용한 전방 차량 검출 알고리즘 (Forward Vehicle Detection Algorithm Using Column Detection and Bird's-Eye View Mapping Based on Stereo Vision)

  • 이충희;임영철;권순;김종환
    • 정보처리학회논문지B
    • /
    • 제18B권5호
    • /
    • pp.255-264
    • /
    • 2011
  • 본 논문에서는 스테레오 비전기반의 컬럼 검출과 조감도 맵핑을 이용한 전방 차량 검출 알고리즘을 제안한다. 제안된 알고리즘은 실제 복잡한 도로 환경에서 전방 차량을 강건하게 검출할 수 있다. 전체적인 알고리즘은 도로 특징기반의 컬럼 검출, 조감도 기반의 장애물체 세그멘테이션, 차량 특징기반의 영역 재결합, 차량 검증으로 크게 네 단계로 구성되어 있다. 먼저 v-시차맵상에서 최대 빈도값을 이용하여 도로 특징 정보만을 추출한 후, 이를 기반으로 컬럼 검출을 수행한다. 도로 특징 정보는 기존의 중앙값과 달리 도로 환경에 영향을 받지 않아 도로상의 장애물체 유무를 판단하는 기준으로 적절하다. 그러나 다수의 장애물체가 동일한 장애물체로 검출되는 것을 해결하기 위하여 조감도 기반의 세그멘테이션을 수행한다. 조감도는 시차맵과 카메라 정보를 기반으로 계산된 장애물체들의 위치를 평면상에 표시함으로써 장애물체를 쉽게 분리할 수 있다. 그러나 분리된 장애물체 중에는 동일한 장애물체인 경우도 있으므로, 도로상의 차량 특징을 기반으로 장애물체가 동일한지를 판단하여 재결합하는 과정을 수행한다. 마지막으로 시차맵과 그레이 영상기반의 차량 검증 단계를 수행하여 차량만 검출한다. 제안된 알고리즘을 실제 복잡한 도로 영상에 적용함으로써 차량 검증 성능을 검증한다.

실시간 이미지 획득을 통한 pRBFNNs 기반 얼굴인식 시스템 설계 (A Design on Face Recognition System Based on pRBFNNs by Obtaining Real Time Image)

  • 오성권;석진욱;김기상;김현기
    • 제어로봇시스템학회논문지
    • /
    • 제16권12호
    • /
    • pp.1150-1158
    • /
    • 2010
  • In this study, the Polynomial-based Radial Basis Function Neural Networks is proposed as one of the recognition part of overall face recognition system that consists of two parts such as the preprocessing part and recognition part. The design methodology and procedure of the proposed pRBFNNs are presented to obtain the solution to high-dimensional pattern recognition problem. First, in preprocessing part, we use a CCD camera to obtain a picture frame in real-time. By using histogram equalization method, we can partially enhance the distorted image influenced by natural as well as artificial illumination. We use an AdaBoost algorithm proposed by Viola and Jones, which is exploited for the detection of facial image area between face and non-facial image area. As the feature extraction algorithm, PCA method is used. In this study, the PCA method, which is a feature extraction algorithm, is used to carry out the dimension reduction of facial image area formed by high-dimensional information. Secondly, we use pRBFNNs to identify the ID by recognizing unique pattern of each person. The proposed pRBFNNs architecture consists of three functional modules such as the condition part, the conclusion part, and the inference part as fuzzy rules formed in 'If-then' format. In the condition part of fuzzy rules, input space is partitioned with Fuzzy C-Means clustering. In the conclusion part of rules, the connection weight of pRBFNNs is represented as three kinds of polynomials such as constant, linear, and quadratic. Coefficients of connection weight identified with back-propagation using gradient descent method. The output of pRBFNNs model is obtained by fuzzy inference method in the inference part of fuzzy rules. The essential design parameters (including learning rate, momentum coefficient and fuzzification coefficient) of the networks are optimized by means of the Particle Swarm Optimization. The proposed pRBFNNs are applied to real-time face recognition system and then demonstrated from the viewpoint of output performance and recognition rate.

휴대폰 환경에서 얼굴 및 홍채 정보를 이용한 암호화키 생성에 관한 연구 (A Study on Releasing Cryptographic Key by Using Face and Iris Information on mobile phones)

  • 한송이;박강령;박소영
    • 전자공학회논문지CI
    • /
    • 제44권6호
    • /
    • pp.1-9
    • /
    • 2007
  • 최근 하나의 휴대폰에 여러 가지 미디어들이 복합적으로 장착됨에 따라 휴대폰에서 제공되는 서비스의 사용자 보안에 대한 요구가 증가되고 있다. 현재 이를 위하여 비밀번호와 인증과정을 통한 암호화 카드를 이용하여 본인을 인증한 후에 서비스를 제공할 수 있는 암호화키를 생성하고 있지만 이는 분실의 위험에 언제든지 노출되어 있다. 따라서 상대적으로 분실의 위험이 거의 존재하지 않는 생체정보를 이용하여 키를 생성하는 연구가 많이 진행되고 있다. 하지만 생체정보는 언제나 동일한 키를 생성해내야 하는 암호화키 생성 시스템의 요구사항과 달리 환경의 변화에 따라 본인이라도 특징 추출시마다 약간씩 다른 특징값이 추출되는 문제점을 가지고 있다. 따라서 본 연구에서는 생체 특징으로부터 직접적으로 키를 생성해내는 생체 정보 기반 키 생성 방법(Biometric-based key generation)이 아닌 생체 정보 매칭 기반 키 생성 방법(Biometric matching-based key release)을 이용하여 미리 정의해 놓은 키를 인식과정을 통하여 도출하고 또한 하나의 생체가 갖는 성능의 불안정성을 극복하기 위하여 얼굴과 홍채를 결정 레벨(Decision Level) 에서 결합함으로써 모바일 환경의 특성을 반영하며 안정된 성능 하에 암호화키가 생성될 수 있도록 하였다. 또한 휴대폰에 내장되어 있는 메가 픽셀 카메라를 이용함으로써 한 번의 영상 취득으로 얼굴과 홍채 인식이 동시에 이루어지는 편리함을 제공하였다. 본 논문에서 제안하는 키 생성 방법의 성능을 측정한 결과, 암호화키 생성에 있어 0.5%의 EER(Equal Error Rate) 성능을 얻었으며, FRR(False Rejection Rate : 본인의 생체 정보로 타인의 암호화키가 나올 에러율)을 25%로 설정하였을 때, FAR(False Acceptance Rate : 타인의 생체 정보로 본인의 암호화키가 나을 에러율)은 약 0.002%의 성능을 얻었다. 동시에 본 시스템에서는 임계 치에 따라 암호화키 생성의 FAR과 FRR값을 동적으로 제어할 수 있는 기능을 제공하였다.

역방향 영상재생을 이용한 끼어들기 차량 자동추적 (Using play-back image sequence to detect a vehicle cutting in a line automatically)

  • 류지형;김영모
    • 전자공학회논문지
    • /
    • 제51권2호
    • /
    • pp.95-101
    • /
    • 2014
  • 본 논문은 도로상에서 끼어들기 위반 차량을 자동으로 추적하는 효과적인 방법을 설명한다. 이 방법은 이미지 시퀀스를 역방향으로 재생하면서 광류추정을 기본으로 하는 KLT 추적 알고리즘을 적용한다. 어떤 기준이 되는 순간부터 시간의 역방향으로 재생하는 이미지 시퀀스를 사용하여 추적의 정확성을 높이는 것이 본 논문의 중요한 아이디어이다. 기준이 되는 순간은 일반적으로 인식카메라가 번호판을 잘 읽을 수 있는 순간이다. 또한 추적 물체의 가장 큰 이미지를 얻는 시점이기도 하다. 추적하려는 물체의 이미지가 클수록 광류 추정을 위한 추적의 특징점을 더 많이 찾을 수 있으며 특징점이 많으면 추적의 결과도 좋다. 인식카메라로 차량의 번호판을 읽은 다음 끼어들기 위반이 의심되면, 광역을 촬영하는 추적카메라의 동영상에서 이 차량의 역방향 이미지 시퀀스를 추출한다. 본 논문은 추적에 이용하는 일반적인 방법인 정방향 이미지 시퀀스와 본 논문이 제안하는 역방향 영상이미지를 이용한 추적 실험의 결과를 비교하였다. 또한 역방향 이미지 시퀀스를 이용한 본 추적의 알고리즘을 자동단속장비에 적용할 수 있다는 결과를 보여준다.

영상조명용 144[W] LED 스폿 등기구 개발에 관한연구 (A Study on the Development of LED Spot Luminaire for Image Lighting)

  • 이장원;임지원
    • 한국인터넷방송통신학회논문지
    • /
    • 제10권5호
    • /
    • pp.271-276
    • /
    • 2010
  • 본 연구에서는 무대 방송용 LED 스폿 조명기구를 자체적으로 설계, 제작하여 조도, 배광 및 색온도를 측정하였으며, 동일한 피사체를 LED 조명과 텅스텐 할로겐 조명을 번갈아 설치하여 인물의 영상을 카메라로 촬영한 영상을 비교하여 LED 조명기구의 대체 가능성을 연구하였다. 촬영한 피사체를 분석한 결과 LED 144[W] 조명기구가 텅스텐 할로겐 1[kW] 조명기구보다 더 영상이 밝기와 색감 면에서 더 우수하였다. 144[W] LED조명기구와 텅스텐 할로겐 1[kW] 조명기구의 사용 에너지를 측정한 결과 동일 조도기준으로 LED가 80[%] 이상의 에너지 절약효과가 있는 것으로 나타났다. 할로겐 텅스텐 1[kW] 조명기구와 LED 144[W] 조명기구의 배광과 조도 분포를 비교 검토한 결과 피사체를 집중적으로 조명하는 경우, 피조면의 조도가 높아 효과적인 조명이 가능하다. 6[m]정도 천고의 공연장이나, 스튜디오에서는 LED144[W] 조명기구는 조도 문제가 없어, 기존의 텅스텐 할로겐 1[KW] 조명기구를 1:1로 대체하는 것이 가능하다.

소나 영상 기반의 수중 물체 인식과 추종을 위한 구조 : Part 2. 확률적 후보 선택을 통한 실시간 프레임워크의 설계 및 구현 (A Framework of Recognition and Tracking for Underwater Objects based on Sonar Images : Part 2. Design and Implementation of Realtime Framework using Probabilistic Candidate Selection)

  • 이영준;김태균;이지홍;최현택
    • 전자공학회논문지
    • /
    • 제51권3호
    • /
    • pp.164-173
    • /
    • 2014
  • 수중 로봇 분야에서 수중 환경 인식은 매우 중요하나, 탁도 등의 제약으로 인하여 수중 광학 카메라의 사용은 제한적이다. 대안으로 기대하는 수중 영상 소나의 경우, 소나 영상의 품질이 영상 처리에 의해 자연물을 그대로 인식하기에 충분히 안정적이며 정확하지 못하다. 이를 극복하고자 본 논문의 Part 1에서 초음파의 특징을 고려한 인공 표식을 제안하였으며, 형상 행렬 기반의 인식 방법을 함께 제안하고 검증하였다. 그러나 실제 해양 환경은 복잡하고 동적인 잡음 요소가 많다. 이러한 문제를 추가로 해결하기위해 본 논문의 Part 2에서는 연속되는 소나 영상에서 확률적으로 인식 후보를 선별하여 인식하고, 추적하는 프레임워크를 제안한다. 이 프레임워크는 4단계, 즉 유사도 기반 관심 후보의 선정, 확률 기반 최종 후보의 선정, 선정된 후보의 인식, 그리고 인식된 물체의 추적으로 구성되어 있다. 이러한 4단계의 구조가 병렬로 처리되어 실시간 처리가 가능하며 인식 대상체의 변경이나 알고리즘의 보강을 위한 유연한 구조를 가진다. 제안한 프레임워크를 구성하는 파티클 필터 기반의 후보 선별 알고리즘과 평균-이동 (mean-shift) 기법에 의한 추적 방법을 함께 제안하였다. 수조 실험과 실해역 실험을 수행을 통하여 성능을 검증하였으며 결과에 대한 상세한 분석을 수행하였다. 인공 표식의 추적에서 얻어진 상대거리, 방향 등의 정보는 수중 로봇의 제어와 항법을 위해 사용될 것으로 기대하고 있다.

지역과 전역적인 색보정을 결합한 스테레오 영상에서의 색 일치 (Integrated Color Matching in Stereoscopic Image by Combining Local and Global Color Compensation)

  • 수란;하호건;김대철;하영호
    • 전자공학회논문지
    • /
    • 제50권12호
    • /
    • pp.168-175
    • /
    • 2013
  • 스테레오 좌우 영상간의 색 일치는 3D 영상을 재현할 때 매우 중요하다. 이를 위해 카메라 세팅 및 촬영 환경을 일치시켜서 스테레오 영상을 획득하더라도 여전히 색 불일치가 나타나게 된다. 이러한 색 불일치는 특성에 따라 전역과 지역적인 색불일치로 구분될 수 있다. 따라서 이들 특성을 고려하여 스테레오 영상의 색을 정확히 일치시킬 수 있는 방법이 필요하다. 본 논문에서는 누적 히스토그램과 3D 거리정보를 이용하여 전역과 지역의 색 불일치를 동시에 보정하는 방법을 제안한다. 먼저 기준이 되는 영상의 누적 히스토그램을 기반으로 한 매칭 함수를 이용하여 전역적으로 발생하는 색 불일치를 보정한다. 다음으로 대응되는 샘플 특징점 간의 CD-LUT(color difference look-up table)을 구성하고, disparity map을 통한 3D 거리 정보를 기반으로 한 샘플 특징점의 유사성을 기준으로 가중치를 적용하여 지역적인 색 일치를 수행한다. 마지막으로 전역적인 보정과 지역적인 보정된 영상을 결합함으로서 스테레오 영상에서 나타나는 색 불일치를 보정하였다. 색차가 발생한 스테레오 영상에 대해 기존 색 일치 방법과 제안한 방법을 비교하기 위하여 색상 유사도를(hue similarity)와 MOS(mean opinion scores) 이용하여 평가하였다. 실험 결과에서 제안한 방법을 통한 결과 영상이 기존 방법을 통한 결과 영상보다 더 높은 수치를 나타냄을 알 수 있었다.

시각 정보의 차단이 드롭랜딩 시 착지 전략에 미치는 영향 (Effects of Visual Information Blockage on Landing Strategy during Drop Landing)

  • 고영철;조준행;문곤성;이해동;이성철
    • 한국운동역학회지
    • /
    • 제21권1호
    • /
    • pp.31-38
    • /
    • 2011
  • This study aimed to determine the effects of the blockage of visual feedback on joint dynamics of the lower extremity. Fifteen healthy male subjects(age: $24.1{\pm}2.3\;yr$, height: $178.7{\pm}5.2\;cm$, weight: $73.6{\pm}6.6\;kg$) participated in this study. Each subject performed single-legged landing from a 45 cm-platform with the eyes open or closed. During the landing performance, three-dimensional kinematics of the lower extremity and ground reaction force(GRF) were recorded using a 8 infrared camera motion analysis system (Vicon MX-F20, Oxford Metric Ltd, Oxford, UK) with a force platform(ORG-6, AMTI, Watertown, MA). The results showed that at 50 ms prior to foot contact and at the time of foot contact, ankle plantar-flexion angle was smaller(p<.05) but the knee joint valgus and the hip flexion angles were greater with the eyes closed as compared to with the eyes open(p<.05). An increase in anterior GRF was observed during single-legged landing with the eyes closed as compared to with the eyes open(p<.05). Time to peak GRF in the medial, vertical and posterior directions occurred significantly earlier when the eyes were closed as compared to when the eyes were open(p<.05). Landing with the eyes closed resulted in a higher peak vertical loading rate(p<.05). In addition, the shock-absorbing power decreased at the ankle joint(p<.05) but increased at the hip joints when landing with the eyes closed(p<.05). When the eyes were closed, landing could be characterized by a less plantarflexed ankle joint and more flexed hip joint, with a faster time to peak GRF. These results imply that subjects are able to adapt the control of landing to different feedback conditions. Therefore, we suggest that training programs be introduced to reduce these injury risk factors.