• 제목/요약/키워드: Image 2D to 3D Model

검색결과 512건 처리시간 0.028초

준 지도학습과 여러 개의 딥 뉴럴 네트워크를 사용한 멀티 모달 기반 감정 인식 알고리즘 (Multi-modal Emotion Recognition using Semi-supervised Learning and Multiple Neural Networks in the Wild)

  • 김대하;송병철
    • 방송공학회논문지
    • /
    • 제23권3호
    • /
    • pp.351-360
    • /
    • 2018
  • 인간 감정 인식은 컴퓨터 비전 및 인공 지능 영역에서 지속적인 관심을 받는 연구 주제이다. 본 논문에서는 wild 환경에서 이미지, 얼굴 특징점 및 음성신호로 구성된 multi-modal 신호를 기반으로 여러 신경망을 통해 인간의 감정을 분류하는 방법을 제안한다. 제안 방법은 다음과 같은 특징을 갖는다. 첫째, multi task learning과 비디오의 시공간 특성을 이용한 준 감독 학습을 사용함으로써 영상 기반 네트워크의 학습 성능을 크게 향상시켰다. 둘째, 얼굴의 1 차원 랜드 마크 정보를 2 차원 영상으로 변환하는 모델을 새로 제안하였고, 이를 바탕으로 한 CNN-LSTM 네트워크를 제안하여 감정 인식을 향상시켰다. 셋째, 특정 감정에 오디오 신호가 매우 효과적이라는 관측을 기반으로 특정 감정에 robust한 오디오 심층 학습 메커니즘을 제안한다. 마지막으로 소위 적응적 감정 융합 (emotion adaptive fusion)을 적용하여 여러 네트워크의 시너지 효과를 극대화한다. 제안 네트워크는 기존의 지도 학습과 반 지도학습 네트워크를 적절히 융합하여 감정 분류 성능을 향상시켰다. EmotiW2017 대회에서 주어진 테스트 셋에 대한 5번째 시도에서, 제안 방법은 57.12 %의 분류 정확도를 달성하였다.

천식 흡입기의 약물전달을 위한 상기도내의 유동해석 (Computational Analysis of Airflow in Upper Airway for Drug Delivery of Asthma Inhaler)

  • 이균범;김성균
    • 대한기계학회논문집 C: 기술과 교육
    • /
    • 제2권2호
    • /
    • pp.73-80
    • /
    • 2014
  • 상기도 내의 약물 전달을 알아보기 위하여 구강 호흡 시 공기유동에 대한 수치해석을 수행하였다. 상기도는 구강과 후두, 기관과 기관지로 구성되어 있다. 정밀 촬영한 CT 데이터로부터 의료영상 소프트웨어(Mimics)를 이용한 구분(segmentation)과 세심한 표면처리를 통하여 해부학적으로 정확한 모델을 만들 수 있었다. 이 3차원 컴퓨터 모델을 이용하여, 구강에서 기관지의 2번째 분지까지 이르는 유로의 수치 모델을 제작하였다. 수치해석은 상용 소프트웨어인 ANSYS/Fluent를 이용하여 계산하였다. 본 연구에 사용된 모델은 노즐이 부착되지 않은 상태에서 초당 250 mL를 흡입하는 정상 구강호흡 모델과 입구에 각각 20 mL/s, 40 mL/s, 60 mL/s의 유량을 갖는 노즐을 장착한 모델을 사용하였다. 전산 유동가시화 결과로부터, 노즐의 유량을 증가시킬수록 선회류의 발생 정도가 증가하여 구강 내 약물의 잔류 량은 증가하지만, 기관/기관지에 약물 도표는 균일하게 나타났다.

CNN 기법을 활용한 운전자 시선 사각지대 보조 시스템 설계 및 구현 연구 (A Study on Design and Implementation of Driver's Blind Spot Assist System Using CNN Technique)

  • 임승철;고재승
    • 한국인터넷방송통신학회논문지
    • /
    • 제20권2호
    • /
    • pp.149-155
    • /
    • 2020
  • 한국도로교통공단은 교통사고분석시스템(TAAS)을 활용하여 2015년부터 발생한 교통사고 원인을 분석한 통계를 제공하고 있다. 교통사고 발생 주요 원인으로, 2018년 한해 전체 교통사고 발생원인 중 전방주시 부주의가 대부분의 원인임을 TAAS를 통해 발표했다. 교통사고 원인에 대한 통계자료의 세부항목으로 운전 중 스마트폰 사용, DMB 시청 등의 안전운전 불이행 51.2%와 안전거리 미확보 14%, 보행자 보호의무 위반 3.6% 등으로, 전체적으로 68.8%의 비율을 보여준다. 본 논문에서는 Deep Learning의 알고리듬 중 CNN(Convolutional Neural Network)를 활용하여 첨단 운전자 보조 시스템 ADAS(Advanced Driver Assistance Systems)을 개선한 시스템을 제안하고자 한다. 제안된 시스템은 영상처리에 주로 사용되는 Conv2D 기법을 사용하여 운전자의 얼굴과 눈동자의 조향을 분류하는 모델을 학습하고, 차량 전방에 부착된 카메라로 자동차의 주변 object를 인지 및 검출하여 주행환경을 인지한다. 그 후, 학습된 시선 조향모델과 주행환경 데이터를 사용하여 운전자의 시선과 주행환경에 따라, 위험요소를 3단계로 분류하고 검출하여 운전자의 전방 및 사각지대 보조한다.

신체 부분 포즈를 이용한 깊이 영상 포즈렛과 제스처 인식 (Depth Image Poselets via Body Part-based Pose and Gesture Recognition)

  • 박재완;이칠우
    • 스마트미디어저널
    • /
    • 제5권2호
    • /
    • pp.15-23
    • /
    • 2016
  • 본 논문에서는 신체 부분 포즈를 이용한 깊이 영상 포즈렛과 제스처를 인식하는 방법을 제안한다. 제스처는 순차적인 포즈로 구성되어 있기 때문에, 제스처를 인식하기 위해서는 시계열 포즈를 획득하는 것에 중점을 두고 있어야 한다. 하지만 인간의 포즈는 자유도가 높고 왜곡이 많기 때문에 포즈를 정확히 인식하는 것은 쉽지 않은 일이다. 그래서 본 논문에서는 신체의 전신 포즈를 사용하지 않고 포즈 특징을 정확히 얻기 위해 부분 포즈를 사용하였다. 본 논문에서는 16개의 제스처를 정의하였으며, 학습 영상으로 사용하는 깊이 영상 포즈렛은 정의된 제스처를 바탕으로 생성하였다. 본 논문에서 제안하는 깊이 영상 포즈렛은 신체 부분의 깊이 영상과 해당 깊이 영상의 주요 3차원 좌표로 구성하였다. 학습과정에서는 제스처를 학습하기 위하여 깊이 카메라를 이용하여 정의된 제스처를 입력받은 후, 3차원 관절 좌표를 획득하여 깊이 영상 포즈렛이 생성되었다. 그리고 깊이 영상 포즈렛을 이용하여 부분 제스처 HMM을 구성하였다. 실험과정에서는 실험을 위해 깊이 카메라를 이용하여 실험 영상을 입력받은 후, 전경을 추출하고 학습된 제스처에 해당하는 깊이 영상 포즈렛을 비교하여 입력 영상의 신체 부분을 추출한다. 그리고 HMM을 적용하여 얻은 결과를 이용하여 제스처 인식에 필요한 부분 제스처를 확인한다. 부분 제스처를 이용한 HMM을 이용하여 효과적으로 제스처를 인식할 수 있으며, 관절 벡터를 이용한 인식률은 약 89%를 확인할 수 있었다.

A Novel Approach to Mugshot Based Arbitrary View Face Recognition

  • Zeng, Dan;Long, Shuqin;Li, Jing;Zhao, Qijun
    • Journal of the Optical Society of Korea
    • /
    • 제20권2호
    • /
    • pp.239-244
    • /
    • 2016
  • Mugshot face images, routinely collected by police, usually contain both frontal and profile views. Existing automated face recognition methods exploited mugshot databases by enlarging the gallery with synthetic multi-view face images generated from the mugshot face images. This paper, instead, proposes to match the query arbitrary view face image directly to the enrolled frontal and profile face images. During matching, the 3D face shape model reconstructed from the mugshot face images is used to establish corresponding semantic parts between query and gallery face images, based on which comparison is done. The final recognition result is obtained by fusing the matching results with frontal and profile face images. Compared with previous methods, the proposed method better utilizes mugshot databases without using synthetic face images that may have artifacts. Its effectiveness has been demonstrated on the Color FERET and CMU PIE databases.

항공영상을 연계한 하천 제외지의 지형분석 개선 기법 (Enhancement of Geomorphology Generation for the Front Land of Levee Using Aerial Photograph)

  • 이근상;이현석;황의호;고덕구
    • 대한토목학회논문집
    • /
    • 제28권3D호
    • /
    • pp.407-415
    • /
    • 2008
  • 본 연구에서는 도시하천의 수체적 계산에 이용되는 지형측량자료의 정확도 향상을 위해 영상정보를 연계하는 기법을 제시하였다. 먼저, 사주와 초지에 대한 지형을 구축하기 위해 횡단측량자료로부터 IDW와 크리깅과 같은 GIS 공간추정기법을 적용하였으며 생성된 지형의 정확도를 평가하기 위해 검정점 측량자료와 비교하였다. 비교결과, 사주에서는 2차 제곱의 IDW가 초지영역에서는 크리깅 구형모델이 하천내 지형구축에 효과적이었으나, 보간법간의 차이는 크지 않은 것으로 나타났다. 또한 하천에 분포하고 있는 사주와 초지에 대한 영역을 효과적으로 고려하기 위해 최소거리법을 적용하여 영상을 분류하여 Water Level Point의 수위값을 적용하였다. 사주와 초지영역을 영상정보로부터 추출하여 생성한 지형자료로부터 분석한 하천내 수체적은 영상정보를 활용하지 않은 기존의 지형에 비해 사주는 20%, 초지는 13%의 정확도 개선효과를 나타내었다. 따라서, 영상정보를 연계한 하천지형분석기법은 홍수시 댐하류에 분포하는 사주와 초지영역에 대한 모니터링 및 하천내 수체적 계산에 유용하게 활용될 수 있으리라 판단된다.

PET/CT 검사에서 SharpIR 재구성 방법의 평가 (Evaluation of SharpIR Reconstruction Method in PET/CT)

  • 김정열;강천구;박훈희;임한상;이창호
    • 핵의학기술
    • /
    • 제16권1호
    • /
    • pp.12-16
    • /
    • 2012
  • 서론: 종래의 PET 영상 재구성에 있어서 FBP 등에 비해 3차원 반복 재구성 방법이 일반적으로 대체하고 있으며, 이것은 검출기 기하학적 특성과 완벽한 3차원 산란 평가 및 저잡음 randoms 평가 등의 더 진보된 재구성 알고리즘을 제공하고 활용되고 있다. 최근에 SharpIR알고리즘은 3차원 반복 재구성 알고리즘으로 PET 검출기 응답 정보를 통합하여 PET 영상의 잡음을 효과적으로 감소시켜 대조도를 향상 시키기 위한 것으로 알려지고 있다. 본 연구에서는 새로운 반복 시스템 모델인 SharpIR에 대한 성능 평가와 임상에서의 적용 가능성에 대해 알아보고자 한다. 실험재료 및 방법: 검출기 응답에 대한 분해능을 측정하기 위해 유리관(내경 1.1 mm, 두께 0.2 mm)에 $^{18}F$-FDG (250 MBq/mL)을 주입하여 축 방향 시야의 중심과 축 방향으로 5, 10, 15, 20 cm만큼 떨어진 지점에서 획득하였고 VUE point HD와 VUE point HD-SharpIR로 재구성하여 각각의 영상에서 반치폭을 구하였다. 또한 영상품질평가로 image quality phantom (NU2-2001)을 이용하여, 여러 개의 각각 다른 반지름을 가지는 원형구에 cold (직경 28, 37 mm)와 ho (직경 10, 13, 17, 22 mm)부분을 나누어 배경잡음을 주고 영상의 대조도를 평가하였다. 획득된 영상은 VUE point HD와 VUE point HD-SharpIR로 재구성을 하였다. 임상실험에서는 전신검사를 시행받은 환자 중 병소가 있는 환자 10명을 대상으로 VUE point HD와 VUE point HD-SharpIR로 재구성하였다. 이때 iterations을 1~10까지 변경하여 병소 부위와 간 부위에 관심영역을 설정하여 대조도를 평가하였다. 결과: VUE point HD로 재구성한 영상에서는 시야 중심으로부터 축방향 거리 증가와 함께 반치폭이 함께 증가하였지만 VUE point HD-SharpIR로 재구성한 영상에서는 거리가 증가하여도 일정한 반치폭을 나타냈다. 대조도는 팬텀 실험과 임상 실험에서 VUE point HD-SharpIR이 VUE point HD보다 대조도의 향상을 나타냈다. 결론: 검출기 시스템 응답에 대한 더 많은 정보를 포함시킴으로써 SharpIR 알고리즘은 VUE point HD에서 사용되는 기본 모델의 정확성을 향상시켰다. 또한 SharpIR은 VUE point HD보다 각각의 복셀에 관련된 더 많은 측정 위치를 가지는 시스템 모델이기 때문에 더욱 정교한 재구성 모델의 결과를 나타내기 위해 더 많은 반복이 걸린다. 결론적으로 SharpIR은 PET 영상에서 대조도를 향상시켰고 임상에서 적용할 수 있는 최적화된 재구성 조건을 알아보기 위해 종단적 연구를 통해 적용한다면 임상에서 유용하게 사용될 것이다.

  • PDF

휴먼인터페이스를 위한 한글음절의 입모양합성 (Lip Shape Synthesis of the Korean Syllable for Human Interface)

  • 이용동;최창석;최갑석
    • 한국통신학회논문지
    • /
    • 제19권4호
    • /
    • pp.614-623
    • /
    • 1994
  • 얼굴을 마주보며 인간끼리 대화하는 것처럼 인간과 자연스럽게 대화할 수 있는 휴먼인터페이스를 실현하기 위해서는 임성의 합성과 얼굴영상의 합성이 필요하다. 본 논문은 얼굴영상의 합성을 대상으로 한다. 얼굴영상의 합성에서는 표정변화와 입모양의 변화를 3차원적으로 실현하기 위하여 얼굴의 3차원 형상모델을 이용한다. 얼굴의 3차원 모델을 얼굴 근육의 움직임에 따라 변형하므로서 다양한 얼굴표정과 음절에 어울리는 입모양을 합성한다. 우리말에서 자모의 결합으로 조합가능한 음절은 14,364자에 이른다. 이 음절에 대한 입모양의 대부분은 모음에 따라 형성되고, 일부가 자음에 따라 달라진다. 그러므로, 음절에 어울리는 입모양의 변형규칙을 정하기 위해, 이들을 모두 조사하여 모든 음절을 대표할 수 있는 입모양패턴을 모음과 자음에 따란 분류한다. 그 결과, 자음에 영향을 받는 2개의 패턴과 모음에 의한 8개의 패턴, 총 10개의 패턴으로 입모양을 분류할 수 있었다. 나아가서, 분류된 입모양패턴의 합성규칙을 얼굴근육의 움직임을 고려하여 정한다. 이와같이 분류된 10개의 입모양패턴으로 모든 음절에 대한 입모양을 합성할 수 있고, 얼굴근육의 움직임을 이용하므로써 다양한 표정을 지으면서 말하는 자연스런 얼굴영상을 합성할 수 있었다.

  • PDF

팬/틸트 제어기반의 스데레오 카메라의 기하학적 정보를 이용한 새로운 높이 추정기법 (A New Height Estimation Scheme Using Geometric Information of Stereo Camera based on Pan/tilt control)

  • 고정환;김은수
    • 한국통신학회논문지
    • /
    • 제31권2C호
    • /
    • pp.156-165
    • /
    • 2006
  • 본 논문에서는 지능적인 보안 시스템 구현의 새로운 접근 방식으로, 인공지능형 시각 시스템에 기반한 팬/틸트 탑재형 스테레오 카메라의 기하학적 정보를 이용한 사람 키 높이 추정기법을 제안하였다. 제안된 시스템에서는 먼저, 스데레오 카메라에서 입력된 영상으로 부터 YCbCr 컬러 모델과 위상형 상관 기법을 사용하여 표적 얼굴영역의 중심좌표를 검출한 다음, 지능형 시각 시스템에 기반한 팬/틸트 탑재형 스테레오 카메라의 능동적인 제어각도 산출을 통해 표적의 다양한 변화에 관계없이 표적의 3차원 좌표를 실시간적으로 검출하고, 이를 통한 표적 대상의 적응적인 신체 크기 추정을 수행하였다. 각기 다른 신장을 가진 3사람의 다양한 이동경로를 가진 480 프레임의 테스트용 스테레오 영상을 사용한 실험 결과, 표적의 추정된 신체 크기값 역시 계산치 및 측정치 사이의 표준편차가 평균 1.03의 작은 값으로 유지됨은 물론, 제안된 시스템에서 계산된 좌표값과 실제 실험대상으로 참여한 사람의 정확한 실제 위치와의 차이 역시 평균 1.2cm 미만의 오차와 전체적으로 1.18$\%$의 오차를 보임으로써 이를 통한 새로운 실시간 스테레오 표적 감시추적 시스템의 구현 가능성을 제시하였다.

근접장 광학계의 광학적 및 기계적 특성 분석과 근접장 간격제어 (Optical and Mechanical Characteristics of NF System and NF Gap Control)

  • 오형렬;이준희;권대갑;김수경
    • 한국소음진동공학회:학술대회논문집
    • /
    • 한국소음진동공학회 2000년도 춘계학술대회논문집
    • /
    • pp.1528-1532
    • /
    • 2000
  • The conventional optics and near field optics are compared numerically in the view points of the spot size and propagation characteristics. The decaying characteristics of near field light require the optics to access the object within several tens of nanometers. Therefore the gap control is one of the main issues in the near field optics area. In this paper the gap control is done by using the shear force of the NF(Near Field) probe and the characteristics are examined. The probe is modeled as a 2'nd order mass-spring-damper system driven by a harmonic force. The primary cause of the decrease in vibration amplitude is due to the damping force - shear force - between the surface and the probe. Using the model, damping constant and resonance frequency of the probe is calculated as a function of probe-sample distance. Detecting the amplitude and phase shift of the NF probe attached to the high Q-factor piezoelectric tuning fork, we can control the position of the NF probe about 0 to 50nm above the sample. The feedback signal to regulate the probe-sample distance can be used independently for surface topography imaging. 3-D view of the shear force image of a testing sample with the period of $1{\mu}m$ will be shown.

  • PDF