• Title/Summary/Keyword: 동영상 정합

Search Result 127, Processing Time 0.027 seconds

SVM Based Facial Expression Recognition for Expression Control of an Avatar in Real Time (실시간 아바타 표정 제어를 위한 SVM 기반 실시간 얼굴표정 인식)

  • Shin, Ki-Han;Chun, Jun-Chul;Min, Kyong-Pil
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1057-1062
    • /
    • 2007
  • 얼굴표정 인식은 심리학 연구, 얼굴 애니메이션 합성, 로봇공학, HCI(Human Computer Interaction) 등 다양한 분야에서 중요성이 증가하고 있다. 얼굴표정은 사람의 감정 표현, 관심의 정도와 같은 사회적 상호작용에 있어서 중요한 정보를 제공한다. 얼굴표정 인식은 크게 정지영상을 이용한 방법과 동영상을 이용한 방법으로 나눌 수 있다. 정지영상을 이용할 경우에는 처리량이 적어 속도가 빠르다는 장점이 있지만 얼굴의 변화가 클 경우 매칭, 정합에 의한 인식이 어렵다는 단점이 있다. 동영상을 이용한 얼굴표정 인식 방법은 신경망, Optical Flow, HMM(Hidden Markov Models) 등의 방법을 이용하여 사용자의 표정 변화를 연속적으로 처리할 수 있어 실시간으로 컴퓨터와의 상호작용에 유용하다. 그러나 정지영상에 비해 처리량이 많고 학습이나 데이터베이스 구축을 위한 많은 데이터가 필요하다는 단점이 있다. 본 논문에서 제안하는 실시간 얼굴표정 인식 시스템은 얼굴영역 검출, 얼굴 특징 검출, 얼굴표정 분류, 아바타 제어의 네 가지 과정으로 구성된다. 웹캠을 통하여 입력된 얼굴영상에 대하여 정확한 얼굴영역을 검출하기 위하여 히스토그램 평활화와 참조 화이트(Reference White) 기법을 적용, HT 컬러모델과 PCA(Principle Component Analysis) 변환을 이용하여 얼굴영역을 검출한다. 검출된 얼굴영역에서 얼굴의 기하학적 정보를 이용하여 얼굴의 특징요소의 후보영역을 결정하고 각 특징점들에 대한 템플릿 매칭과 에지를 검출하여 얼굴표정 인식에 필요한 특징을 추출한다. 각각의 검출된 특징점들에 대하여 Optical Flow알고리즘을 적용한 움직임 정보로부터 특징 벡터를 획득한다. 이렇게 획득한 특징 벡터를 SVM(Support Vector Machine)을 이용하여 얼굴표정을 분류하였으며 추출된 얼굴의 특징에 의하여 인식된 얼굴표정을 아바타로 표현하였다.

  • PDF

Image Mosaicking Using Feature Points Based on Color-invariant (칼라 불변 기반의 특징점을 이용한 영상 모자이킹)

  • Kwon, Oh-Seol;Lee, Dong-Chang;Lee, Cheol-Hee;Ha, Yeong-Ho
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.46 no.2
    • /
    • pp.89-98
    • /
    • 2009
  • In the field of computer vision, image mosaicking is a common method for effectively increasing restricted the field of view of a camera by combining a set of separate images into a single seamless image. Image mosaicking based on feature points has recently been a focus of research because of simple estimation for geometric transformation regardless distortions and differences of intensity generating by motion of a camera in consecutive images. Yet, since most feature-point matching algorithms extract feature points using gray values, identifying corresponding points becomes difficult in the case of changing illumination and images with a similar intensity. Accordingly, to solve these problems, this paper proposes a method of image mosaicking based on feature points using color information of images. Essentially, the digital values acquired from a digital color camera are converted to values of a virtual camera with distinct narrow bands. Values based on the surface reflectance and invariant to the chromaticity of various illuminations are then derived from the virtual camera values and defined as color-invariant values invariant to changing illuminations. The validity of these color-invariant values is verified in a test using a Macbeth Color-Checker under simulated illuminations. The test also compares the proposed method using the color-invariant values with the conventional SIFT algorithm. The accuracy of the matching between the feature points extracted using the proposed method is increased, while image mosaicking using color information is also achieved.

A study on the lip shape recognition algorithm using 3-D Model (3차원 모델을 이용한 입모양 인식 알고리즘에 관한 연구)

  • 김동수;남기환;한준희;배철수;나상동
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 1998.11a
    • /
    • pp.181-185
    • /
    • 1998
  • Recently, research and developmental direction of communication system is concurrent adopting voice data and face image in speaking to provide more higher recognition rate then in the case of only voice data. Therefore, we present a method of lipreading in speech image sequence by using the 3-D facial shape model. The method use a feature information of the face image such as the opening-level of lip, the movement of jaw, and the projection height of lip. At first, we adjust the 3-D face model to speeching face image sequence. Then, to get a feature information we compute variance quantity from adjusted 3-D shape model of image sequence and use the variance quality of the adjusted 3-D model as recognition parameters. We use the intensity inclination values which obtaining from the variance in 3-D feature points as the separation of recognition units from the sequential image. After then, we use discrete HMM algorithm at recognition process, depending on multiple observation sequence which considers the variance of 3-D feature point fully. As a result of recognition experiment with the 8 Korean vowels and 2 Korean consonants, we have about 80% of recognition rate for the plosives and vowels.

  • PDF

A study on the lip shape recognition algorithm using 3-D Model (3차원 모델을 이용한 입모양 인식 알고리즘에 관한 연구)

  • 남기환;배철수
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.6 no.5
    • /
    • pp.783-788
    • /
    • 2002
  • Recently, research and developmental direction of communication system is concurrent adopting voice data and face image in speaking to provide more higher recognition rate then in the case of only voice data. Therefore, we present a method of lipreading in speech image sequence by using the 3-D facial shape model. The method use a feature information of the face image such as the opening-level of lip, the movement of jaw, and the projection height of lip. At first, we adjust the 3-D face model to speeching face Image sequence. Then, to get a feature information we compute variance quantity from adjusted 3-D shape model of image sequence and use the variance quality of the adjusted 3-D model as recognition parameters. We use the intensity inclination values which obtaining from the variance in 3-D feature points as the separation of recognition units from the sequential image. After then, we use discrete HMM algorithm at recognition process, depending on multiple observation sequence which considers the variance of 3-D feature point fully. As a result of recognition experiment with the 8 Korean vowels and 2 Korean consonants, we have about 80% of recognition rate for the plosives md vowels.

Development and Performance Analysis of a Near Real-Time Sensor Model Correction System for Frame Motion Imagery (프레임동영상의 근실시간 센서모델 보정시스템 개발 및 성능분석)

  • Kwon, Hyuk Tae;Koh, Jin-Woo;Kim, Sanghee;Park, Se Hyoung
    • Journal of the Korea Institute of Military Science and Technology
    • /
    • v.21 no.3
    • /
    • pp.315-322
    • /
    • 2018
  • Due to the increasing demand for more rapid, precise and accurate geolocation of the targets on video frames from UAVs, an efficient and timely method for correcting sensor models of motion imagery is required. In this paper, we propose a method to adjust or correct sensor models of motion imagery frames using space resection via image matching with reference data. The proposed method adopts image matching between the motion imagery frames and the reference frames which are synthesized from reference data. Ground or reference control points are generated or selected through the matching process in near real time, and are used for space resection to get adjusted sensor models. Finally, more precise and accurate geolocation of the targets can possibly be done on the fly, and we have got the promising result on performance analysis in terms of the geolocation quality.

A Study on motion estimator design using DCT DC value (DCT 직류 값을 이용한 움직임 추정기 설계에 관한 연구)

  • Lee, Gwon Cheol;Park, Jong Jin;Jo, Won Gyeong
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.38 no.3
    • /
    • pp.22-22
    • /
    • 2001
  • 정보량이 많은 고화질의 동영상을 실시간으로 전송하기 위하여 압축 알고리즘을 필수적으로 사용하고 있으며, 시간적 중복성을 제거하는 동영상의 압축방법은 움직임 추정 알고리즘을 사용한다. 본 연구에서 설계하고자 하는 움직임 추정기는 블록정합 알고리즘이며, MPEG 부호기에서 사용되는 DCT 연산 결과인 DC 값을 이용하여 화면의 밝기를 판단한다. 움직임 추정기는 휘도 신호 8비트 모두를 사용하지 않고, 화면 밝기에 따른 비트 플레인(bit plane)에서 3비트만 선택하는 비교선택기를 이용한다. 본 연구에서 제안한 비교 선택기는 I-Picture만을 계산한다. I-Picture에 의해 계산된 선택 비트는 I, P와 B Picture의 움직임 추정 연산에 사용함으로서 움직임 추정기의 크기를 줄일 수 있는 구조를 제안하였다. 제안된 움직임 추정기의 고찰을 위하여 실험에 사용된 표준 동영상의 해상도는 352×288이며, DCT 연산의 처리 블록은 8×8이며, 탐색 영역은 23×23이다. 제안된 알고리즘은 C언어로 모델링하였으며, 기존 완전탐색방법과 PSNR을 비교한 결과 사람의 시각으로 거의 구별할 수 없는 작은 차이(0~0.83dB)가 나타남을 알 수 있었다. 본 연구에서 제안한 움직임 추정기의 하드웨어 크기는 기존 구조Ⅰ보다 38.3%, 기존 구조Ⅱ보다 30.7% 줄일 수 있었고, 메모리 크기는 기존 구조Ⅰ,Ⅱ보다 31.3% 줄일 수 있었다.

Search point displacement using DCT for Motion Estimation (움직임탐색에 있어서 DCT를 이용한 탐색점 배치)

  • 송지연;김준한;김상곤;윤영우
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10b
    • /
    • pp.407-409
    • /
    • 1999
  • 블록의 DCT계수를 이용하여 동영상 움직임 탐색(motion estimation)에서 탐색점 수를 결정하는 선택적 탐색 기법을 제안한다. DCT(Discrete Cosine Transform)에서 탐색점 수를 결정하는 선택적 탐색 기법을 제안한다. DCT(Discrete Cosine Transform) 연산과 블록정합 기법인 3단게 탐색기법을 기반으로 한다. DCT 연산 결과인 블록의 주파수성분에 가중치테이블을 적용하여 고주파성분을 많이 가진 블록일수록 탐색점의 수를 증가시켜 국부극소에 빠질 확률을 줄여 화질을 개선한다. MP@ML 영상테이터에 대해 제안된 기법을 사용하여 시뮬레이션하였다. 제안하는 기법은 3단계 탐색기법에 비하여 연산량은 증가하나, 연산량 증가에 비하여 좋은 화질을 제공한다.

  • PDF

A Block Matching using the Motion Information of Previous Frame and the Predictor Candidate Point on each Search Region (이전 프레임의 움직임 정보와 탐색 구간별 예측 후보점을 이용하는 블록 정합)

  • 곽성근;위영철;김하진
    • Journal of KIISE:Computing Practices and Letters
    • /
    • v.10 no.3
    • /
    • pp.273-281
    • /
    • 2004
  • There is the temporal correlation of the video sequence between the motion vector of current block and the motion vector of previous block. In this paper, we propose the prediction search algorithm for block matching using the temporal correlation of the video sequence and the center-biased property of motion vectors. The proposed algorithm determines the location of a better starting point for the search of an exact motion vector using the point of the smallest SAD(sum of absolute difference) value by the predicted motion vector from the same block of the previous frame and the predictor candidate point on each search region. Simulation results show that PSNR(Peak-to-Signal Noise Ratio) values are improved up to the 1.06㏈ as depend on the video sequences and improved about 0.19∼0.46㏈ on an average except the full search(FS) algorithm.

Adaptive Distance Selection Algorithm Using Constrained One-Bit Transform in Macroblock Unit (매크로블록 단위로 거리값을 선택해주는 제한된 1비트 변환 알고리듬)

  • Kim, Jaehun;Kim, Ilseung;Ng, Teck Sheng;Jeong, Jechang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.11a
    • /
    • pp.225-228
    • /
    • 2011
  • 동영상을 고효율로 압축할 수 있는 중요한 기술 중의 하나가 움직임 추정 기술이다. 움직임 추정 기술에서 가장 널리 사용되는 탐색 방식과 정합오차를 판단하는 기준은 각각 전역 탐색(FS: Full Search)알고리듬과 Sum of Absolute Differences(SAD)이다. 하지만, FS와 SAD를 사용한 움직임 추정기술은 인코더 전체 계산량의 50%이상을 차지하게 된다. 무선 통신 및 인터넷 환경에서 사용되는 응용프로그램에 대해서는 많은 계산량이 실시간 전송을 어렵게 만든다. 이러한 이유로, 동영상 압축 기술에서 계산량을 줄이는 방법이 중요하게 되었다. 그 결과로, SAD대신 다른 정합 오차 기준을 사용하여 움직임 추정기술의 계산량을 줄이는 알고리듬들이 제안되었다. 본 논문에서는 계산량을 줄이면서 하드웨어 구현 시 많은 이점을 가진 1비트 변환 (One-bit Transform, 1BT)알고리듬과 1비트 변환의 성능을 향상시킨 제한된 1비트 변환(Constrained one-bit transform, C-1BT)을 소개하고 C-1BT방법에 있어서 기존 방식의 빠른 인코딩속도를 유지하면서 PSNR을 증가시키는 알고리듬을 제안한다. 제안하는 알고리듬에서는 기존 C-1BT에서 고정해서 사용한 파라미터 D값을 대신에 현재블록과 동일한 위치에 있는 참조영역의 블록과 그 주변블록의 움직임벡터 정보를 이용해서 블록의 움직임 정도를 판단하고, 블록단위로 D값을 적응적으로 결정한다. 실험결과는 제안하는 알고리듬이 기존의 알고리듬과 비교하여 평균 0.11dB PSNR 증가를 보여 준다.

  • PDF

Real-Time Stereoscopic Image Conversion Using Motion Detection and Region Segmentation (움직임 검출과 영역 분할을 이용한 실시간 입체 영상 변환)

  • Kwon Byong-Heon;Seo Burm-suk
    • Journal of Digital Contents Society
    • /
    • v.6 no.3
    • /
    • pp.157-162
    • /
    • 2005
  • In this paper we propose real-time cocersion methods that can convert into stereoscopic image using depth map that is formed by motion detection extracted from 2-D moving image and region segmentation separated from image. Depth map which represents depth information of image and the proposed absolute parallax image are used as the measure of qualitative evaluation. We have compared depth information, parallax processing, and segmentation between objects with different depth for proposed and conventional method. As a result, we have confirmed the proposed method can offer realistic stereoscopic effect regardless of direction and velocity of moving object for a moving image.

  • PDF