• 제목/요약/키워드: 표정변환

검색결과 88건 처리시간 0.03초

수위 변화를 고려한 표면영상유속계의 영상왜곡 보정 기법 개발 (Development of correction method for distorted images of LSPIV considering water level change)

  • 김희정;김서준;윤병만;이준형
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2018년도 학술발표회
    • /
    • pp.137-137
    • /
    • 2018
  • 표면영상유속계는 매우 간편하고 신속하게 하천의 유속장을 측정하는 기법이지만 하천의 넓은 구역을 카메라로 촬영하기 때문에 영상왜곡이 필연적으로 발생한다. 이러한 왜곡을 보정하기위해 많이 사용되고 있는 2차원 투영좌표변환법을 이용하여 유속을 분석하였다. 하지만 2차원 투영좌표변환법의 경우 표정점이 수표면의 높이와 같은 위치에 존재하지 않으면 유속 분석 결과에 큰 오차를 유발시킨다. 홍수 시 하천의 수위가 급변할 경우 표정점을 수위 변화에 맞추어 이동시키면서 영상을 촬영한다는 것은 현실적으로 불가능하다. 이러한 문제점을 극복하기위해 하천의 수위 변화에 대응하는 영상왜곡 보정 기법 개발이 필요하다. 이에 본 연구에서는 기존의 2차원 투영좌표변환법을 개선하기 위해 제방근처의 표정점 4개와 카메라의 좌표와 카메라와 수표면까지의 연직거리를 이용한 영상왜곡 보정식을 개발하였다. 그리고 표정점과 수표면의 높이를 다양하게 변화시키면서 개발한 보정식을 적용하였다. 표정점이 수위에 맞게 설정된 경우를 기준으로 수위보다 높게 설정된 표정점에 대하여 보정식을 적용한 경우의 유속은 표정점이 수위보다 높게 설정된 경우의 유속과 비교한 결과 오차가 크게 개선되었음을 확인하였다. 따라서 하천에 CCTV를 고정적으로 설치하여 유량을 산정할 경우 본 연구에서 제시한 표정점 보정식을 활용한다면 수위가 급변하는 상황에서도 정확한 표면유속을 산정할 수 있을 것으로 기대한다.

  • PDF

얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성 (3D Facial Model Expression Creation with Head Motion)

  • 권오륜;전준철;민경필
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

웨이블릿 변환 노이즈 제거에 의한 AE 위치표정 (An Improved AE Source Location by Wavelet Transform De-noising Technique)

  • 이경주;권오양;주영찬
    • 비파괴검사학회지
    • /
    • 제20권6호
    • /
    • pp.490-500
    • /
    • 2000
  • 사용하는 탄성파의 파장과 두께가 비슷하거나 보다 얇은 박판 구조에서 음향방출(acoustic emission, AE) 신호의 위치표정 정확도의 향상을 위해 새로운 신호처리 방법인 웨이블릿 변환 디노이징(wavelet transform de-noising) 기법을 도입하였다. 탐지된 AE 신호에 대하여 웨이블릿 변환과 역변환을 수행하여 상대적으로 저주파수이고 큰 진폭을 갖는 굽힘파 성분(flexural component)은 활용하고, 고주파수이고 작은 진폭의 팽창파 성분(extensional component)은 필터링하여 제거한 다음 신호를 재구성하는 디노이징 처리를 거침으로써 박판에서의 위치표정 시 발생하는 도달시간차 측정오차를 최소화할 수 있음을 확인하였다. 따라서 웨이블릿 디노이징 처리를 도입함으로써 위치표정의 정확도가 게인(gain)이나 문턱값의 설정, 판의 두께, 센서간거리, 발생원과 센서의 상대적인 위치에 무관하고 전통적인 문턱값 통과 방법에 비하여 월등하게 향상되었다. 또한 상대적으로 매우 큰 진폭을 가지는 굽힘파 성분을 활용하므로 실제적인 박판 구조물에서의 위치표정에 효과적으로 활용될 수 있을 것이다.

  • PDF

Gabor 웨이브렛과 FCM 군집화 알고리즘에 기반한 동적 연결모형에 의한 얼굴표정에서 특징점 추출 (Feature-Point Extraction by Dynamic Linking Model bas Wavelets and Fuzzy C-Means Clustering Algorithm)

  • 신영숙
    • 인지과학
    • /
    • 제14권1호
    • /
    • pp.11-16
    • /
    • 2003
  • 본 논문은 Gabor 웨이브렛 변환을 이용하여 무표정을 포함한 표정영상에서 얼굴의 주요 요소들의 경계선을 추출한 후, FCM 군집화 알고리즘을 적용하여 무표정 영상에서 저차원의 대표적인 특징점을 추출한다. 무표정 영상의 특징점들은 표정영상의 특징점들을 추출하기 위한 템플릿으로 사용되어지며, 표정영상의 특징점 추출은 무표정 영상의 특징점과 동적 연결모형을 이용하여 개략적인 정합과 정밀한 정합 과정의 두단계로 이루어진다. 본 논문에서는 Gabor 웨이브렛과 FCM 군집화 알고리즘을 기반으로 동적 연결모형을 이용하여 표정영상에서 특징점들을 자동으로 추출할 수 있음을 제시한다. 본 연구결과는 자동 특징추출을 이용한 차원모형기반 얼굴 표정인식[1]에서 얼굴표정의 특징점을 자동으로 추출하는 데 적용되었다.

  • PDF

표정변화에 따른 얼굴 표정요소의 특징점 추적 (Tracking of Facial Feature Points related to Facial Expressions)

  • 최명근;정현숙;신영숙;이일병
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2000년도 가을 학술발표논문집 Vol.27 No.2 (2)
    • /
    • pp.425-427
    • /
    • 2000
  • 얼굴 표정은 사람의 감정을 표현함과 동시에 그것을 이해할 수 있는 중요한 수단이다. 최근 이러한 얼굴 표정의 자동인식과 추적을 위한 연구가 많이 진행되고 있다. 본 연구에서는 대략적인 얼굴영역을 설정하여 얼굴의 표정을 나타내는 표정요소들을 찾아낸 후, 각 요소의 특징점을 추출하고 추적하는 방법을 제시한다. 제안하는 시스템의 개요는 입력영상의 첫 프레임에서 얼굴영역 및 특징점을 찾고, 연속되는 프레임에서 반복적으로 이를 추적한다. 특징점 추출과 추적에는 템플릿 매칭과 Canny 경계선 검출기, Gabor 웨이블릿 변환을 사용하였다.

  • PDF

감정 트레이닝: 얼굴 표정과 감정 인식 분석을 이용한 이미지 색상 변환 (Emotion Training: Image Color Transfer with Facial Expression and Emotion Recognition)

  • 김종현
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권4호
    • /
    • pp.1-9
    • /
    • 2018
  • 본 논문은 얼굴의 표정 변화를 통해 감정을 분석하는 방법으로 조현병의 초기 증상을 스스로 인지할 수 있는 감정 트레이닝 프레임워크를 제안한다. 먼저, Microsoft의 Emotion API를 이용하여 캡처된 얼굴 표정의 사진으로부터 감정값을 얻고, 피크 분석 기반 표준편차로 시간에 따라 변화하는 얼굴 표정의 미묘한 차이를 인식해 감정 상태를 각각 분류한다. 그리하여 Ekman이 제안한 여섯 가지 기본 감정 상태에 반하는 감정들의 정서 및 표현능력이 결핍된 부분에 대해 분석하고, 그 값을 이미지 색상 변환 프레임워크에 통합시켜 사용자 스스로 감정의 변화를 쉽게 인지하고 트레이닝 할 수 있도록 하는 것이 최종목적이다.

광류와 표정 HMM에 의한 동영상으로부터의 실시간 얼굴표정 인식 (Realtime Facial Expression Recognition from Video Sequences Using Optical Flow and Expression HMM)

  • 전준철;신기한
    • 인터넷정보학회논문지
    • /
    • 제10권4호
    • /
    • pp.55-70
    • /
    • 2009
  • 비전기반 인간컴퓨터 상호작용은 컴퓨터와 인간의 상호소통을 자연스럽게 제공하는 측면에서 과학과 산업분야에서 주목받는 연구 분야이다. 그러한 측면에서 얼굴표정인식에 의한 인간의 심리적 상태를 추론하는 기술은 중요한 이슈이다. 본 연구에서는 감성인식 HMM 모델과 광류에 기반한 얼굴 움직임 추적 방법을 이용하여 동영상으로부터 얼굴표정을 인식하는 새로운 방법을 제시하였다. 특히, 기존의 감성상태 변환을 설명하는 HMM 모델은 특정 표정상태 간의 전환 시 항상 중립 상태를 거치도록 설계되어 있다. 그러나 본 연구에서는 기존의 표정상태 전환 모델에 중간상태를 거치는 과정 없이 특정 표정 상태간의 변환이 가능한 확장된 HMM 모델을 제시한다. 동영상으로부터 얼굴의 특성정보를 추출하기 위하여 탬플릿 매칭과 광류방법을 적용하였다. 광류에 의해 추적된 얼굴의 표정특성 정보는 얼굴표정인식을 위한 HMM의 매개변수 정보로 사용된다. 실험을 통하여 제안된 얼굴표정인식 방법이 실시간 얼굴 표정인식에 효과적임을 입증하였다.

  • PDF

사진 측정 기법을 이용한 스테레오 표면영상유속계의 개발 (Development of Stereoscopic Surface Image Velocimetry using Photogrammetric Techniques)

  • 류권규;김대곤;윤병만
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2008년도 학술발표회 논문집
    • /
    • pp.1799-1803
    • /
    • 2008
  • 표면영상유속계는 하천 표면의 영상을 분석하여 유속을 산정하는 매우 실용적이며 간편한 장비이다. 그러나, 표면영상유속계를 이용하여 유량을 산정하고자 할 경우, 하천 표면의 평면 측량 자료와 하천의 단면 측량 자료가 반드시 필요하다. 이 때문에 표면영상유속계의 간편성과 유용성에도 불구하고, 이용자들이 쉽게 이용하기 어렵다는 그릇된 인식을 줄 수 있다. 만일 효율적이고 간편하게 하천의 단면을 추정할 수 있다면, 표면영상유속계를 마치 일반적인 프로펠러 유속계처럼 쉽게 이용할 수 있을 것이다. 이 연구는 일반적인 평면 측량없이, 두 대의 비디오 카메라로 이루어진 표면 영상 유속계를 이용하여 하천 평면을 계측하는 방법을 개발하는 것이다. 이를 통하여 표면 영상 분석 과정을 반자동화할 수 있게 된다. 두 대의 카메라를 이용한 평면 측량은 사진 측량 분야이나 컴퓨터 비전 분야에서 오랫 동안 연구되어 왔다. 이 기법을 표면영상유속계에 적용함으로써 간단하게 하천의 평면 좌표를 구할 수 있도록 하였다. 두 대의 카메라에 대해서는 직접 선형 변환법을 이용하여 내부 표정과 외부 표정을 수행하여 변환의 매개 변수들을 추정하였다. 추정된 변수들과 공간 전방 교회법을 이용하여 하천의 고정된 기준점들의 좌표를 측정한다. 측정된 좌표점들은 기울어진 영상을 연직으로 사영된 평면으로 변환하는 데 이용되며, 이 과정을 통하여 번거로운 하천의 평면 측량 과정을 생략할 수 있게 되었다. 온천천에 실제 적용하여 본 결과, 결과는 아직은 만족할 만한 정도는 아니나, 보다 정밀한 카메라의 보정 등을 통하여 보다 나은 결과를 도출할 수 있을 것으로 기대된다.

  • PDF

내부표정과 상호표정의 자동화에 관한 연구 (A Study on the Automation of Interior Orientation and Relative Orientation)

  • 정수;박정환;윤공현;유복모
    • 한국측량학회지
    • /
    • 제17권2호
    • /
    • pp.105-116
    • /
    • 1999
  • 컴퓨터의 급속한 발달과 다양한 영상처리기법이 도입되면서, 기존의 기계적 사진측량과 해석적 사진측량에서 숙련된 작업자에 의해 수행되었던 표정작업들을 컴퓨터를 이용해 자동화하고자 하는 시도들이 사진측량 분야에서 활발하게 이루어지기 시작했다. 사진측량공정의 자동화를 위해서는 내부표정, 상호표정, 절대표정 등의 표정작업에 관한 자동화 연구가 선행되어야 한다. 본 연구는 내부표정과 상호표정과정을 자동화하는 것을 목적으로 하였다. 이를 위해 내부표정에는 Hough 변환을, 상호표정에는 대상공간영상정합기법을 적용하였다. 본 연구의 결과, 기존 수치사진측량시스템에서 수작업에 의존하여 반자동으로 수행되는 표정 작업들을 자동화하기 위한 방법을 제시할 수 있었다.

  • PDF

실시간 아바타 표정 제어를 위한 SVM 기반 실시간 얼굴표정 인식 (SVM Based Facial Expression Recognition for Expression Control of an Avatar in Real Time)

  • 신기한;전준철;민경필
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.1057-1062
    • /
    • 2007
  • 얼굴표정 인식은 심리학 연구, 얼굴 애니메이션 합성, 로봇공학, HCI(Human Computer Interaction) 등 다양한 분야에서 중요성이 증가하고 있다. 얼굴표정은 사람의 감정 표현, 관심의 정도와 같은 사회적 상호작용에 있어서 중요한 정보를 제공한다. 얼굴표정 인식은 크게 정지영상을 이용한 방법과 동영상을 이용한 방법으로 나눌 수 있다. 정지영상을 이용할 경우에는 처리량이 적어 속도가 빠르다는 장점이 있지만 얼굴의 변화가 클 경우 매칭, 정합에 의한 인식이 어렵다는 단점이 있다. 동영상을 이용한 얼굴표정 인식 방법은 신경망, Optical Flow, HMM(Hidden Markov Models) 등의 방법을 이용하여 사용자의 표정 변화를 연속적으로 처리할 수 있어 실시간으로 컴퓨터와의 상호작용에 유용하다. 그러나 정지영상에 비해 처리량이 많고 학습이나 데이터베이스 구축을 위한 많은 데이터가 필요하다는 단점이 있다. 본 논문에서 제안하는 실시간 얼굴표정 인식 시스템은 얼굴영역 검출, 얼굴 특징 검출, 얼굴표정 분류, 아바타 제어의 네 가지 과정으로 구성된다. 웹캠을 통하여 입력된 얼굴영상에 대하여 정확한 얼굴영역을 검출하기 위하여 히스토그램 평활화와 참조 화이트(Reference White) 기법을 적용, HT 컬러모델과 PCA(Principle Component Analysis) 변환을 이용하여 얼굴영역을 검출한다. 검출된 얼굴영역에서 얼굴의 기하학적 정보를 이용하여 얼굴의 특징요소의 후보영역을 결정하고 각 특징점들에 대한 템플릿 매칭과 에지를 검출하여 얼굴표정 인식에 필요한 특징을 추출한다. 각각의 검출된 특징점들에 대하여 Optical Flow알고리즘을 적용한 움직임 정보로부터 특징 벡터를 획득한다. 이렇게 획득한 특징 벡터를 SVM(Support Vector Machine)을 이용하여 얼굴표정을 분류하였으며 추출된 얼굴의 특징에 의하여 인식된 얼굴표정을 아바타로 표현하였다.

  • PDF