• Title/Summary/Keyword: 표정점

Search Result 303, Processing Time 0.055 seconds

Development of correction method for distorted images of LSPIV considering water level change (수위 변화를 고려한 표면영상유속계의 영상왜곡 보정 기법 개발)

  • Kim, Heejoung;Kim, Seojun;Yoon, Byungman;Lee, Jun Hyung
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2018.05a
    • /
    • pp.137-137
    • /
    • 2018
  • 표면영상유속계는 매우 간편하고 신속하게 하천의 유속장을 측정하는 기법이지만 하천의 넓은 구역을 카메라로 촬영하기 때문에 영상왜곡이 필연적으로 발생한다. 이러한 왜곡을 보정하기위해 많이 사용되고 있는 2차원 투영좌표변환법을 이용하여 유속을 분석하였다. 하지만 2차원 투영좌표변환법의 경우 표정점이 수표면의 높이와 같은 위치에 존재하지 않으면 유속 분석 결과에 큰 오차를 유발시킨다. 홍수 시 하천의 수위가 급변할 경우 표정점을 수위 변화에 맞추어 이동시키면서 영상을 촬영한다는 것은 현실적으로 불가능하다. 이러한 문제점을 극복하기위해 하천의 수위 변화에 대응하는 영상왜곡 보정 기법 개발이 필요하다. 이에 본 연구에서는 기존의 2차원 투영좌표변환법을 개선하기 위해 제방근처의 표정점 4개와 카메라의 좌표와 카메라와 수표면까지의 연직거리를 이용한 영상왜곡 보정식을 개발하였다. 그리고 표정점과 수표면의 높이를 다양하게 변화시키면서 개발한 보정식을 적용하였다. 표정점이 수위에 맞게 설정된 경우를 기준으로 수위보다 높게 설정된 표정점에 대하여 보정식을 적용한 경우의 유속은 표정점이 수위보다 높게 설정된 경우의 유속과 비교한 결과 오차가 크게 개선되었음을 확인하였다. 따라서 하천에 CCTV를 고정적으로 설치하여 유량을 산정할 경우 본 연구에서 제시한 표정점 보정식을 활용한다면 수위가 급변하는 상황에서도 정확한 표면유속을 산정할 수 있을 것으로 기대한다.

  • PDF

Automatic Installation and Verification of Ground Control Points for Practical Application of Drone-based Surface Image Velocimeter (드론 기반 표면영상유속계의 실용적 적용을 위한 자동 표정점 설치와 검증)

  • Hwang, Jeong-Geun;Yu, Kwonkyu;Bae, In Hyuk;Lee, Han Seung
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2017.05a
    • /
    • pp.69-69
    • /
    • 2017
  • 최근 여러 분야에서 드론에 대한 관심도가 높아짐에 따라, 하천분야에서도 다양한 연구에 드론이 활용하고 있다. 드론관련 기술의 발전으로 GPS와 같은 첨단 기술이 탑재되어 사용자에게 여러가지 정보를 제공하며, 조작 또한 간단하여 누구나 쉽게 활용할 수 있다. 그리고 무엇보다도 사람이 접근하기 힘든 지역을 쉽게 촬영할 수 있다는 큰 장점을 가지고 있다. 본 연구의 목적은 드론을 기반으로 표면영상유속측정법을 적용시켜 하천의 표면유속을 효율적으로 측정하는 것이다. 표면영상유속측정법은 카메라로 촬영된 영상을 이용하여 표면유속을 도출하기 때문에 촬영된 영상이 무엇보다도 중요하다. 하지만 드론으로 촬영된 영상들은 아무리 정지비행을 잘하더라도 필연적으로 영상에 흔들림이 존재한다. 이를 해결하기 위해 본 연구에서는 흔들린 영상에 대하여 형태 정합법에 의해 보정을 하였으며, 이는 가장 핵심적인 기술이라 할 수 있다. 형태 정합법에 의한 영상 보정 과정은 고정된 표정점을 영상에서 추적한 뒤, 기준 영상의 표정점과 보정 영상의 표정점이 일치하도록 보정하였다. 영상 보정 후 영상 처리와 분석프로그램을 통하여 유속을 도출한다. 기존의 표면영상유속측정법에서는 표정점을 설치한 후 각 표정점마다 측량을 실시하여 좌표를 측정하였다. 이는 한국건설기술연구원 안동하천실험센터와 같이 이상적인 실험을 진행할 수 있는 환경에서는 문제가 없다. 하지만 실제 하천에서 표면유속측정 시 하천의 폭, 주변 환경 등의 영향으로 측량작업에 많은 어려움이 있다. 이를 해결하기 위해 본 연구에서는 Arduino와 GPS센서를 이용하여 표정점을 구성하였다. Arduino와 GPS 센서를 이용하면 각 표정점들의 좌표를 노트북에서 실시간으로 자동으로 확인할 수 있다. GPS 센서의 측정 오차에 따라 관측 오차가 다소 존재하지만, 실제 측량을 할 때와는 비교할 수 없을 정도로 신속하게 표정점의 좌표를 구할 수 있다. 이를 바탕으로 실험 하천에 대해 적용한 결과 기존의 방법에 비하여 간편하고 빠르게 표면유속측정을 수행할 수 있었으며, 표면유속측정값 또한 만족스러운 결과를 얻을 수 있었다.

  • PDF

3D Facial Model Expression Creation with Head Motion (얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성)

  • Kwon, Oh-Ryun;Chun, Jun-Chul;Min, Kyong-Pil
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

Facial expression recognition using eigen-points (아이겐포인트를 이용한 표정 인식)

  • 홍성희;변혜란
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.817-819
    • /
    • 2004
  • 본 논문에서는 사람의 얼굴표정을 구분하기 위해서 무표정 영상으로부터 18개의 특징점을 찾고, 그 특징점 간의 거리를 템플릿으로 이용하는 방법을 연구하였다. 얼굴표정인식을 위해 정의된 기본 템플릿과 입력 표정 영상에서의 특징정 간의 상대적인 거리의 차이와 특징점의 좌표변위 차이를 이용하여 표정을 구분하도록 하였다. 각 테스트 표정영상의 특징점은 주요 얼굴요소로부터 아이겐포인트(eigen-point)를 자동으로 추출하였다. 표정 인식은 신경망 학습을 통해서 기쁨, 경멸, 놀람, 공포 슬픔 등 5가지로 나누어 실험하였고, 신경망의 인식 결과와 사람의 인식 결과를 통해서 비교한 결과, 72%의 인식성능을 보여주었다.

  • PDF

Face Expression Recognition Algorithm Using Geometrical Properties of Face Features and Accumulated Histogram (얼굴 특징자들의 구조적 특성과 누적 히스토그램을 이용한 얼굴 표정 인식 알고리즘)

  • 김영일;이응주
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.08a
    • /
    • pp.293-296
    • /
    • 2000
  • 본 논문에서는 얼굴의 구조적 특성과 누적 히스토그램을 이용하여 다양한 정보를 포함하고 있는 얼굴의 6가지 표정을 인식하는 알고리즘을 기술하였다. 표정 인식을 위해 특징점 추출 전처리 과정으로 입력 영상으로부터 에지 추출, 이진화, 잡음 제거, 모폴로지 기법을 이용한 팽창, 레이블링 순으로 적용한다. 본 논문은 레이블 영역의 크기를 이용해 1차 특징점 영역을 추출하고 가로방향의 누적 히스토그램 값과 대칭성의 구조적인 관계를 이용하여 2차 특징점 추출 과정을 거쳐 정확하게 눈과 입을 찾아낸다. 또한 표정 변화를 정량적으로 측정하기 위해 추출된 특징점들의 눈과 입의 크기, 미간 사이의 거리 그리고 눈에서 입까지의 거리 정보를 이용하여 표정을 인식한다. 1, 2차 특징점 추출 과정을 거치므로 추출률이 매우 높고 특징점들의 표정에 따른 변화 거리를 이용하므로 표정 인식률이 높다. 본 논문은 안경 착용 영상과 같이 복잡한 얼굴 영상에서도 표정 인식이 가능하다.

  • PDF

Tracking of Facial Feature Points related to Facial Expressions (표정변화에 따른 얼굴 표정요소의 특징점 추적)

  • 최명근;정현숙;신영숙;이일병
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.425-427
    • /
    • 2000
  • 얼굴 표정은 사람의 감정을 표현함과 동시에 그것을 이해할 수 있는 중요한 수단이다. 최근 이러한 얼굴 표정의 자동인식과 추적을 위한 연구가 많이 진행되고 있다. 본 연구에서는 대략적인 얼굴영역을 설정하여 얼굴의 표정을 나타내는 표정요소들을 찾아낸 후, 각 요소의 특징점을 추출하고 추적하는 방법을 제시한다. 제안하는 시스템의 개요는 입력영상의 첫 프레임에서 얼굴영역 및 특징점을 찾고, 연속되는 프레임에서 반복적으로 이를 추적한다. 특징점 추출과 추적에는 템플릿 매칭과 Canny 경계선 검출기, Gabor 웨이블릿 변환을 사용하였다.

  • PDF

Facial Expression Feature Extraction for Expression Recognition (표정 인식을 위한 얼굴의 표정 특징 추출)

  • Kim, Young-Il;Kim, Jung-Hoon;Hong, Seok-Keun;Cho, Seok-Je
    • Proceedings of the IEEK Conference
    • /
    • 2005.11a
    • /
    • pp.537-540
    • /
    • 2005
  • 본 논문에서는 사람의 감정, 건강상태, 정신상태등 다양한 정보를 포함하고 있는 웃음, 슬픔, 졸림, 놀람, 윙크, 무표정 등의 표정을 인식하기 위한 표정의 특징이 되는 얼굴의 국부적 요소인 눈과 입을 검출하여 표정의 특징을 추출한다. 표정 특징의 추출을 위한 전체적인 알고리즘 과정으로는 입력영상으로부터 칼라 정보를 이용하여 얼굴 영역을 검출하여 얼굴에서 특징점의 위치 정보를 이용하여 국부적 요소인 특징점 눈과 입을 추출한다. 이러한 특징점 추출 과정에서는 에지, 이진화, 모폴로지, 레이블링 등의 전처리 알고리즘을 적용한다. 레이블 영역의 크기를 이용하여 얼굴에서 눈, 눈썹, 코, 입 등의 1차 특징점을 추출하고 누적 히스토그램 값과 구조적인 위치 관계를 이용하여 2차 특징점 추출 과정을 거쳐 정확한 눈과 입을 추출한다. 표정 변화에 대한 표정의 특징을 정량적으로 측정하기 위해 추출된 특징점 눈과 입의 눈과 입의 크기와 면적, 미간 사이의 거리 그리고 눈에서 입까지의 거리 등 기하학적 정보를 이용하여 6가지 표정에 대한 표정의 특징을 추출한다.

  • PDF

Feature-Point Extraction by Dynamic Linking Model bas Wavelets and Fuzzy C-Means Clustering Algorithm (Gabor 웨이브렛과 FCM 군집화 알고리즘에 기반한 동적 연결모형에 의한 얼굴표정에서 특징점 추출)

  • 신영숙
    • Korean Journal of Cognitive Science
    • /
    • v.14 no.1
    • /
    • pp.11-16
    • /
    • 2003
  • This Paper extracts the edge of main components of face with Gator wavelets transformation in facial expression images. FCM(Fuzzy C-Means) clustering algorithm then extracts the representative feature points of low dimensionality from the edge extracted in neutral face. The feature-points of the neutral face is used as a template to extract the feature-points of facial expression images. To match point to Point feature points on an expression face against each feature point on a neutral face, it consists of two steps using a dynamic linking model, which are called the coarse mapping and the fine mapping. This paper presents an automatic extraction of feature-points by dynamic linking model based on Gabor wavelets and fuzzy C-means(FCM) algorithm. The result of this study was applied to extract features automatically in facial expression recognition based on dimension[1].

  • PDF

Recognition of Facial Expressions of Animation Characters Using Dominant Colors and Feature Points (주색상과 특징점을 이용한 애니메이션 캐릭터의 표정인식)

  • Jang, Seok-Woo;Kim, Gye-Young;Na, Hyun-Suk
    • The KIPS Transactions:PartB
    • /
    • v.18B no.6
    • /
    • pp.375-384
    • /
    • 2011
  • This paper suggests a method to recognize facial expressions of animation characters by means of dominant colors and feature points. The proposed method defines a simplified mesh model adequate for the animation character and detects its face and facial components by using dominant colors. It also extracts edge-based feature points for each facial component. It then classifies the feature points into corresponding AUs(action units) through neural network, and finally recognizes character facial expressions with the suggested AU specification. Experimental results show that the suggested method can recognize facial expressions of animation characters reliably.

Real-time Recognition System of Facial Expressions Using Principal Component of Gabor-wavelet Features (표정별 가버 웨이블릿 주성분특징을 이용한 실시간 표정 인식 시스템)

  • Yoon, Hyun-Sup;Han, Young-Joon;Hahn, Hern-Soo
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.19 no.6
    • /
    • pp.821-827
    • /
    • 2009
  • Human emotion can be reflected by their facial expressions. So, it is one of good ways to understand people's emotions by recognizing their facial expressions. General recognition system of facial expressions had selected interesting points, and then only extracted features without analyzing physical meanings. They takes a long time to find interesting points, and it is hard to estimate accurate positions of these feature points. And in order to implement a recognition system of facial expressions on real-time embedded system, it is needed to simplify the algorithm and reduce the using resources. In this paper, we propose a real-time recognition algorithm of facial expressions that project the grid points on an expression space based on Gabor wavelet feature. Facial expression is simply described by feature vectors on the expression space, and is classified by an neural network with its resources dramatically reduced. The proposed system deals 5 expressions: anger, happiness, neutral, sadness, and surprise. In experiment, average execution time is 10.251 ms and recognition rate is measured as 87~93%.