• 제목/요약/키워드: 광류

검색결과 65건 처리시간 0.025초

무인 영상 감시 시스템을 위한 실시간 얼굴 영역 추출 알고리즘 (Real-time Face Localization for Video Monitoring)

  • 주영현;이정훈;문영식
    • 전자공학회논문지C
    • /
    • 제35C권11호
    • /
    • pp.48-56
    • /
    • 1998
  • 본 논문에서는 영상 감시 시스템을 위한 이동물체 추적 및 얼굴 영역 추출 알고리즘을 제안한다. 제안된 방법은 두 단계로 구성되어 있으며, 첫 번째의 이동 물체 감지 단계에서는 각각의 입력 프레임에 대하여 화소값의 변화를 기반으로 한 세 종류의 특징값들을 추출한 다음, 그 값들에 의하여 입력 프레임을 다섯 종류의 클래스로 분류한다. 분류 결과 현재의 프레임이 이동물체를 포함하고 있다면 두 번째의 얼굴 영역 분리 단계에서 컬러 정보와 프레임간의 차이를 이용하여 그 얼굴 영역을 추출하게 된다. 제안된 알고리즘은 광류등 계산시간이 많이 걸리는 특징값들에 의존하지 않으므로 실시간 처리에 적합하다. 또한 여러 테스트 영상시퀀스에 대하여 실험을 수행한 결과 본 논문에서 제안된 알고리즘의 유용성이 입증되었다.

  • PDF

광류와 조음 발성 특성을 이용한 립리딩 알고리즘 (A Lip-reading Algorithm Using Optical Flow and Properties of Articulatory Phonation)

  • 이미애
    • 한국멀티미디어학회논문지
    • /
    • 제21권7호
    • /
    • pp.745-754
    • /
    • 2018
  • Language is an essential tool for verbal and emotional communication among human beings, enabling them to engage in social interactions. Although a majority of hearing-impaired people can speak; however, they are unable to receive feedback on their pronunciation most of them can speak. However, they do not receive feedback on their pronunciation. This results in impaired communication owing to incorrect pronunciation, which causes difficulties in their social interactions. If hearing-impaired people could receive continuous feedback on their pronunciation and phonation through lip-reading training, they could communicate more effectively with people without hearing disabilities, anytime and anywhere, without the use of sign language. In this study, the mouth area is detected from videos of learners speaking monosyllabic words. The grayscale information of the detected mouth area is used to estimate a velocity vector using Optical Flow. This information is then quantified as feature values to classify vowels. Subsequently, a system is proposed that classifies monosyllables by algebraic computation of geometric feature values of lips using the characteristics of articulatory phonation. Additionally, the system provides feedback by evaluating the comparison between the information which is obtained from the sample categories and experimental results.

컬러 및 광류정보를 이용한 이동물체 추적 (A Moving Object Tracking using Color and OpticalFlow Information)

  • 김주현;최한고
    • 융합신호처리학회논문지
    • /
    • 제15권4호
    • /
    • pp.112-118
    • /
    • 2014
  • 본 연구는 칼라기반에서 단일 이동객체 추적을 다루고 있다. 우선 매 영상에서 이동객체 영상의 밝기 변화에 따른 추적 약점을 개선하기 위해 기존의 Camshift 알고리즘을 보완하였다. 보완된 알고리즘도 추적중인 물체와 색상이 같은 주변 물체가 존재할 경우 불안정한 추적을 보여주었는데 본 연구에서는 이를 해결하기 위해 Optical Flow기반의 KLT 알고리즘과 병합하는 방법을 제시하였다. 픽셀기반의 특징점 추적을 수행하는 KLT 알고리즘은 칼라기반의 Camshift의 단점을 보완할 수 있다. 실험 결과 제안된 병합 방법은 기존의 추적단점을 보완하였으며 추적성능이 개선됨을 실험으로 확인하였다.

Optical Flow 기반 CCTV 영상에서의 차량 통행량 및 통행 속도 추정에 관한 연구 (Optical Flow Based Vehicle Counting and Speed Estimation in CCTV Videos)

  • 김지혜;신도경;김재경;권철희;변혜란
    • 방송공학회논문지
    • /
    • 제22권4호
    • /
    • pp.448-461
    • /
    • 2017
  • 본 논문에서는 교통관제용 CCTV로부터 촬영된 영상에서 교통 상황 분석을 위해 차량의 통행량 및 통행 속도를 획득하는 방법을 제안한다. 제안하는 방법은 촬영된 영상에 역 투영 사상(IPM, Inverse Perspective Mapping) 방법을 이용하여 카메라 각도에 따른 시각적 관점에서 기인한 왜곡을 제거하고, 차선 검출 알고리즘을 통해 1) 차량 통행량, 2) 차량 통행 속도를 측정할 소정 영역을 획득한다. 소정 영역에 대하여 광류(Optical flow) 기반 모션 추정을 이용하여 차량 통행량 및 통행 속도를 획득한다. 본 논문에서 제안한 방법을 지역별 다양한 CCTV 영상인 총 106,993 프레임, 약 세 시간 길이의 영상에 적용하여 88.94%의 검출 성능을 얻을 수 있었다.

기하학적 해석을 이용한 비전 기반의 장애물 검출 (Vision-based Obstacle Detection using Geometric Analysis)

  • 이종실;이응혁;김인영;김선일
    • 전자공학회논문지SC
    • /
    • 제43권3호
    • /
    • pp.8-15
    • /
    • 2006
  • 이동 로봇의 많은 응용분야에서 장애물을 검출하는 것은 중요한 요소이다. 스테레오 비전과 광류를 이용하여 장애물을 검출하는 방법은 복잡한 연산을 요구하므로 본 논문에서는 단지 두 장면의 영상만을 이용하여 비전 기반 장애물 검출 방법을 제시하고 단일 카메라와 주행거리계를 사용하여 실시간 처리가 가능하도록 하였다. 제안한 방법은 두 장면으로부터 3차원 복원을 수행함으로서 장애물을 검출하는 방법으로 먼저 두 장면의 입력영상 각각에 대하여 Lowe의 SIFT를 사용하여 특징점을 추출하고 이들 간의 대응점을 구한다. 그리고 주행거리계로부터 주어지는 회전과 병진행렬 값들과 삼각법을 이용하여 대응점들에 대한 3차원 위치를 구한다. 이렇게 삼각법에 의해 얻어진 결과는 장애물들에 대한 부분적인 3차원 복원을 의미한다. 제안한 방법은 실내에서 주행하는 이동 로봇에 적용하였을 때 좋은 결과를 얻을 수 있었으며, 75msec의 속도로 장애물을 검출할 수 있었다.

움직임 추정을 통한 깊이 지도의 시간적 일관성 보상 기법 (Depth map temporal consistency compensation using motion estimation)

  • 현지호;유지상
    • 한국정보통신학회논문지
    • /
    • 제17권2호
    • /
    • pp.438-446
    • /
    • 2013
  • 본 논문에서는 컬러 영상에서 추정된 움직임 벡터를 이용하여 움직이는 객체와 움직이지 않는 객체로 영상을 분리하여 깊이 영상의 시간적 일관성을 보상하는 기법을 제안한다. 제안하는 기법에서는 광류(optical flow) 추정 기법을 이용하여 연속되는 컬러 영상의 움직임 벡터를 추정하고 초기 움직임 객체 영역을 생성한다. 이를 바탕으로 그랩컷(grabcut) 기법을 통해 움직임이 있는 객체와 움직임이 없는 객체 영역을 분리한다. 그리고 움직임이 없는 객체 영역의 깊이 값을 이전 프레임의 깊이 지도와 정합 창 기반 절대평균오차(sum of absolute differences)를 통해 비교하여 일정 임계값보다 클 경우 이전 프레임의 깊이 값으로 현재 프레임의 깊이 값을 대체함으로써 시간적 상관성을 보상한다. 움직임이 있는 객체 영역의 경우 시간 축으로 확장된 결합형 양방향 필터링을 수행하여 시간적 상관성을 보상한다. 제안하는 기법으로 보상된 깊이 지도를 이용하여 가상 시점을 합성할 시 화질 향상 뿐 아니라 최근 표준화가 진행 중인 HEVC에서도 부호화 효율 또한 증가한다는 것을 실험을 통하여 확인하였다.

국소적 위상기반 어파인 모델을 이용한 강인한 카메라 움직임 추정 (Robust Estimation of Camera Motion Using A Local Phase Based Affine Model)

  • 장석윤;윤창용;박민용
    • 전자공학회논문지CI
    • /
    • 제46권1호
    • /
    • pp.128-135
    • /
    • 2009
  • 동영상에서 시공간상 일정한 위상을 갖는 윤곽선을 정합시켜 물리적 공간에서의 동일한 위치를 추적하는 방법은 명암이 일정한 윤곽선을 정합시키거나 일정한 명암을 전제로 추적하는 방법에 비해 정확성이 높고 조명조건에 대해 안정된 특성이 있다. 본 논문에서는 이러한 성질을 이용하여 조명변화와 노이즈에 강인하게 카메라의 움직임을 추정하는 기법을 소개한다. 우선, 가버 필터뱅크를 사용하여 공간적으로 여과된 연속영상으로부터 계산된 위상의 크기를 기반으로 필터의 방향과 수직인 곳의 광류를 구한 후, 최소제곱법을 적용하여 어파인 모델에 상응하는 카메라의 움직임 파라미터를 구한다. 실험을 통하여 이러한 방법은 조명조건의 변화를 야기하는 디스플레이 기기를 피사체로 하여 카메라의 위치변화를 추정하는 방식의 영상기반 포인팅 디바이스에도 적용될 수 있음을 보인다.

은닉 마르코프 모델을 이용한 동영상 기반 낙상 인식 알고리듬 (Video Based Fall Detection Algorithm Using Hidden Markov Model)

  • 김남호;유윤섭
    • 전자공학회논문지
    • /
    • 제50권8호
    • /
    • pp.232-237
    • /
    • 2013
  • 동영상에서 추출한 변수값을 은닉 마르코프 모델(Hidden Markov Model; HMM)에 적용한 새로운 낙상 인식 알고리듬을 제안한다. 개인간 낙상 양식의 차이나 유사 낙상을 실제 낙상과 구분하기 위한 기계 학습 방법으로 HMM알고리듬을 사용하였다. 비디오의 낙상 특징 변수를 얻기 위해 동영상의 광류를 구한 후 이를 주성분 분석 방식에 적용하여 움직임을 정량화하였다. 주성분 분석으로 얻어진 전체 움직임 벡터의 각도, 장단축의 비, 속도등의 조합으로 새로운 여러 종류의 낙상 특징 변수를 정의한 후 이를 HMM에 적용하여 결과를 비교, 분석하였다. 이들 변수들 중에 각도에 의해 얻어진 변수가 가장 좋은 결과를 보여 본 실험에서 91.5%의 민감도(성공 감지율)와 88.01% 의 특이도(실패 감지율)를 나타내었다.

실시간 교통상황 모니터링 시스템을 위한 유저 친화적인 영상 변형 방법 (An User-Friendly Method of Image Warping for Traffic Monitoring System)

  • 이주호;조정원
    • 디지털융복합연구
    • /
    • 제14권12호
    • /
    • pp.231-236
    • /
    • 2016
  • 현재 인터넷으로 감시 카메라를 이용하여 교통량을 보여주는 서비스가 제공되고 있으나, 일반적으로 사용자가 지도 위의 일정 위치를 지정하면 카메라가 장착되어 있는 기준으로 영상을 보여준다. 본 논문에서는 상단이 북쪽으로 표시되는 일반적인 지도에 현재 카메라에서 촬영되고 있는 도로의 영상을 지도 기준으로 위에서 바라보는 시점(Bird's-eye view)으로 변형(Warping)하여 보여줌으로써 사용자가 직관적으로 현재의 도로 상황을 한눈에 볼 수 있는 시스템을 제안하였다. 본 논문에서는 카메라 영상에서 보여주고 있는 도로 평면을 강인하게 추정하기 위해 밝기 변화에 강인할 수 있는 움직임 벡터를 이용하여 도로 평면을 추정하는 방법을 제안하며, 지도와 같은 방향성을 가질 수 있도록 재조정하는 과정을 적용하고 지도 위에 표시할 수 있는 사용자 친화적인 인터페이스를 제시하였다. 실험결과를 통해 본 논문에서 제안하는 방법이 지도와 같이 사용자가 인지하기 편리한 영상으로 변형되는 결과를 확인하였다.

음성인식기 성능 향상을 위한 영상기반 음성구간 검출 및 적응적 문턱값 추정 (Visual Voice Activity Detection and Adaptive Threshold Estimation for Speech Recognition)

  • 송태엽;이경선;김성수;이재원;고한석
    • 한국음향학회지
    • /
    • 제34권4호
    • /
    • pp.321-327
    • /
    • 2015
  • 본 연구에서는 음성인식기 성능향상을 위한 영상기반 음성구간 검출방법을 제안한다. 기존의 광류기반 방법은 조도변화에 대응하지 못하고 연산량이 많아서 이동형 플렛홈에 적용되는 스마트 기기에 적용하는데 어려움이 있고, 카오스 이론 기반 방법은 조도변화에 강인하지만 차량 움직임 및 입술 검출의 부정확성으로 인해 발생하는 오검출이 발생하는 문제점이 있다. 본 연구에서는 기존 영상기반 음성구간 검출 알고리즘의 문제점을 해결하기 위해 지역 분산 히스토그램(Local Variance Histogram, LVH)과 적응적 문턱값 추정 방법을 이용한 음성구간 검출 알고리즘을 제안한다. 제안된 방법은 조도 변화에 따른 픽셀 변화에 강인하고 연산속도가 빠르며 적응적 문턱값을 사용하여 조도변화 및 움직임이 큰 차량 운전자의 발화를 강인하게 검출할 수 있다. 이동중인 차량에서 촬영한 운전자의 동영상을 이용하여 성능을 측정한 결과 제안한 방법이 기존의 방법에 비하여 성능이 우수함을 확인하였다.