• 제목/요약/키워드: 캡쳐 프레임

검색결과 54건 처리시간 0.024초

얼굴 표정공간의 계층적 가시화 (Hierarchical Visualization of the Space of Facial Expressions)

  • 김성호;정문렬
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제31권12호
    • /
    • pp.726-734
    • /
    • 2004
  • 본 논문은 애니메이터로 하여금 계층적 가시화 기법에 의한 표정들의 공간으로부터 일련의 표정을 실시간적으로 선택하게 함으로써 얼굴 표정 애니메이션을 생성하는 기법을 기술한다 본 시스템에서는 약 2400여개의 표정 프레임을 이용하여 2차원 표정공간을 구성하였으며, 이를 위해서는 한 표정을 표시하는 상태표현으로 얼굴 특징 점들 간의 상호거리를 표시하는 거리 행렬을 사용한다. 또한 두 표정 간의 최단거리를 구하기 위해 다이내믹 프로그래밍 기법을 사용한다. 그리고 다차원 공간인 표정공간을 항해하기 위해서 다차원 스케일링 기법을 이용하여 2차원 공간으로 가시화한다. 그러나 표정의 수가 너무 많아 애니메이터가 항해를 하는데 어려움이 많기 때문에 계층적 가시화 기법이 필요하다. 표정공간을 계층적으로 분할하기 위해, 퍼지 클러스터링을 이용한다. 초기 단계에서는 약 10개의 클러스터 센터(후보 키 프레임)를, 단계가 증가될 때마다 후보 키 프레임의 수를 두 배로 하여 클러스터링하고 2차원 평면에 표시한다. 애니메이터는 초기 단계의 후보 키 프레임들 중에서 특정 키 프레임들을 선택하여 항해경로를 생성한다. 특정 단계에서는 그전 단계의 항해경로를 따라 새로운 키 프레임들을 선택하여 항해경로를 갱신하고, 마지막 단계에서 항해경로를 갱신하면 애니메이션 설정이 끝난다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 애니메이터들로 하여금 본 시스템을 사용하여 얼굴 애니메이션을 생성하게 하였으며, 그 결과를 평가한다.

모션 데이터의 계층적 가시화에 의한 3차원 아바타의 표정 제어 (Facial Expression Control of 3D Avatar by Hierarchical Visualization of Motion Data)

  • 김성호;정문렬
    • 정보처리학회논문지A
    • /
    • 제11A권4호
    • /
    • pp.277-284
    • /
    • 2004
  • 본 논문은 사용자로 하여금 계층적 가시화 기법에 의한 표정들의 공간으로부터 일련의 표정을 선택하게 함으로써 3차원 아바타의 표정 제어기법을 기술한다. 본 시스템에서는 2,40P0여개의 표정 프레임을 이용하여 2차원 표정공간을 구성하였으며, 3차원 아바타의 표정 제어는 사용자가 표정공간을 항해하면서 수행한다. 그러나 표정의 수가 너무 많아 사용자가 항해를 하는데 어려움이 많기 때문에 계층적 가시화 기법이 필요하다. 표정공간을 계층적으로 분할하기 위해, 퍼지 클러스터링을 이용한다. 초기 단계에서는 2,400여개의 표정들을 이용하여 약 11개의 클러스터센터를 가지도록 클러스터링한다. 클러스터 센터들은 2차원 평면에 표시되며 후보 키 프레임으로 사용된다 사용자는 후보 키 프레임들 중에서 특정 키 프레임들을 선택하여 초기 항해경로를 생성한다. 사용자가 줌 인(이산적인 단계를 가지고 있음)을 하면 상세한 단계를 보기를 원한다는 의미이므로 줌 인된 단계에 적합한 표정 클러스터들을 생성한다. 단계가 증가될 때 마다 클러스터의 수를 두 배로 하고, 클러스터의 수만큼 표정들을 클러스터링한다. 사용자는 현재 단계에서 그전 단계의 항해경로를 따라 새로운 키 프레임(클러스터 센터)들을 선택하여 항해경로를 갱신한다. 줌 인을 최대로 한 마지막 단계에서 항해경로를 갱신하면 표정 제어 설정이 끝난다. 사용자는 언제든지 줌 아웃을 통해 그 전단계로 돌아가서 항해경로를 수정할 수 있다. 본 논문은 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 표정 제어를 수행하게 하였으며, 그 결과를 평가한다.

LLE 알고리즘을 사용한 얼굴 모션 데이터의 투영 및 실시간 표정제어 (Realtime Facial Expression Control and Projection of Facial Motion Data using Locally Linear Embedding)

  • 김성호
    • 한국콘텐츠학회논문지
    • /
    • 제7권2호
    • /
    • pp.117-124
    • /
    • 2007
  • 본 논문은 얼굴 모션 캡쳐 데이터를 재사용하여 실시간 표정 제어 및 표정 애니메이션을 생성하기 위한 방법론을 기술한다. 이 방법의 핵심요소는 얼굴 표정들을 정의할 수 있는 표정상태 표현법을 정하고, 이를 LLE 알고리즘에 적용하여 표정들을 적당한 공간에 분포시키는 방법론과, 이 공간을 사용하여 실시간 표정 애니메이션 생성 및 표정제어를 수행하기 위한 사용자 인터페이스 기법이다. 본 논문에서는 약 2400개의 얼굴 표정 프레임 데이터를 이용하여 공간을 생성하고, 애니메이터가 이 공간을 자유롭게 항해할 때, 항해경로 상에 위치한 얼굴 표정 프레임 데이터들이 연속적으로 선택되어 하나의 애니메이션이 생성되거나 표정제어가 가능하도록 하였다. 약 2400개의 얼굴 표정 프레임 데이터들을 직관적인 공간상에 분포하기 위해서는 얼굴 표정 프레임 데이터로부터 얼굴 표정상태를 표현할 필요가 있고, 이를 위해서는 임의의 두 마커 사이의 거리들로 구성된 거리행렬 벡터를 이용한다. 직관적인 공간에서의 데이터 배치는 얼굴 표정상태벡터들의 집합을 LLE 알고리즘에 적용하고, 이로부터 2차원 평면에 균일하게 분포하였다. 본 논문에서는 애니메이터로 하여금 사용자 인터페이스를 사용하여 실시간으로 표정 애니메이션을 생성하거나 표정제어를 수행하도록 하였으며, 그 결과를 평가한다.

음성/영상 연동성능 향상을 위한 입술움직임 영상 추적 테스트 환경 구축 (A Lip Movement Image Tracing Test Environment Build-up for the Speech/Image Interworking Performance Enhancement)

  • 이수종;박준;김응규
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 춘계학술발표대회
    • /
    • pp.328-329
    • /
    • 2007
  • 본 논문은 로봇과 같이 외부 음향잡음에 노출되어 있는 상황 하에서, 대면하고 있는 사람이 입술을 움직여 발성하는 경우에만 음성인식 기능이 수행되도록 하기 위한 방안의 일환으로, 입술움직임 영상을 보다 정확히 추적하기 위한 테스트 환경 구현에 관한 것이다. 음성구간 검출과정에서 입술움직임 영상 추적결과의 활용여부는 입술움직임을 얼마나 정확하게 추적할 수 있느냐에 달려있다. 이를 위해 영상 프레임율 동적 제어, 칼라/이진영상 변환, 순간 캡쳐, 녹화 및 재생기능을 구현함으로써, 다각적인 방향에서 입술움직임 영상 추적기능을 확인해 볼 수 있도록 하였다. 음성/영상기능을 연동시킨 결과 약 99.3%의 연동성공율을 보였다.

  • PDF

스테레오 영상을 이용한 가상 캐릭터의 실시간 동작 생성 (Real-time Motion Generation of Virtual Character using the Stereo Images)

  • 이란희;김성은;박창준;이인호
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2002년도 추계학술발표논문집 (상)
    • /
    • pp.31-34
    • /
    • 2002
  • 본 논문에서는 2 대의 카메라로부터 입력된 스테레오 영상을 이용하여 가상캐릭터의 동작을 실시간으로 생성하는 방법에 대해 기술한다. 이 시스템은 동작자의 움직임을 캡쳐하기 위해 동작자의 좌, 우 전방에 동기화된 2 대의 컬러 CCD 카메라를 위치시킨다. 카메라로부터 입력된 스테레오 영상을 분석하여 신체의 중심이 되는 루트와 머리, 손, 발과 같은 end-effector의 2차원 특징점을 추출하고, 추출된 특징점들은 카메라의 사영행렬과 추적 알고리즘을 통해 3차원 위치를 생성한다. 생성된 루트와 end-effector 의 3 차원 위치정보는 노이즈 제거를 위한 필터링을 거친 후 역운동학 알고리듬에 적용하고, 인체 관절의 해부학적인 제약조건과 관절간의 상호 연관성 및 전 후 프레임간의 부드러운 연결 동작 생성을 고려하여 중간관절의 위치를 정밀하게 계산한다. 중간관절의 위치를 생성하므로 서 임의 동작자의 움직임에 대한 모든 관절의 정보를 획득할 수 있으며, 획득된 동작 데이터를 가상 캐릭터에 적용하므로 서 캐릭터의 움직임을 실시간으로 생성할 수 있다.

  • PDF

감마나이프 방사선치료에서 소프트웨어와 하드웨어 시간설정차이에 의한 처방선량에 주는 영향

  • 서원섭;임영진;신동오
    • 한국의학물리학회:학술대회논문집
    • /
    • 한국의학물리학회 2003년도 제27회 추계학술대회
    • /
    • pp.60-60
    • /
    • 2003
  • 목적 : 감마나이프 치료계획용 소프트웨어인 감마플렌에서 처방선량을 계산하는 단위와 실제 시간을 설정하는 하드웨어인 조정판의 시간설정 단위의 차이에 의한 실제 처방선량에 끼치는 영향을 계산하였다. 대상 및 방법 : 감마나이프는 주어진 4 개의 헬멧을 가지고 최소 한번 또는 최대 20 번 이상의 방사선 조합으로 한번에 많은 방사선을 목표물에 조사한다. 감마나이프 방사선 수술을 위한 치료계획용 소프트웨어인 감마플렌 5.32에서는 처방선량에 대한 치료시간을 최대 지점 또는 지정하는 지점에 규격화하여 소숫점 두 자리 즉 0.6 초까지 계산한다. 그러나 실제 치료를 위한 조정판의 시간설정은 모델 B 에서는 소숫점 한자리까지 가능하게 되어있다. 그러므로 모델 B를 사용하는 기관의 치료계획 컴퓨터인 감마플렌에서는 소숫점 한자리로 만들기 위해 반올림과 내림을 하게 되며 이것을 프린트하여 사용하게 된다. 실제 임상에서 멀티삿에 대한 반올림과 내림에 대한 효과를 선량으로 환산하여 처방선량에 끼치는 영향을 연구하였다. 치료 계획에 서 처방선량을 입력한 후 계산된 각 조사에 대한 소숫점 두자리 시간을 화면에 표시한 후 스냅tit으로 스크린 캡쳐하여 프린트하였으며, 소숫점 한자리로 된 최종 치료계획을 프린트하여 서로 비교 계산하였다. 결과 : 20 여명의 환자에 대한 치료 결과에 대한 분석은 조사의 수나 처방선량에 관계하지 않고 우연히 올림이 많으냐 내림이 많으냐에 의존하였다. 최대지점에 대하여 분석한 결과는 -0.48부터 +0.47로 -2%부터 +1.9%의 정도로 영향을 끼쳤다. 결론 : 반올림과 내림의 결과는 처방선량을 줄일 수도 있고 늘일 수도 있었다. 그러나 이 연구는 최대선량 지점에 대해 비교를 하였으나 실제로는 각 조사의 위치가 서로 다르므로 영향은 이보다 훨씬 적을 것으로 생각되어 소숫점 한자리로 치료하여도 무방할 것으로 보인다.mm, AP 방향에서는 2.1$\pm$0.82 mm이었다. 그리고 복부의 later의 방향에서는 7.0$\pm$2.1 mm, AP 방향에서는 6.5$\pm$2.2 mm 이었다. 또한 표적 위치측정을 위해서 환자의 피부에 임의의 가상표적을 부착하고 CT 촬영한 영상결과, 프레임으로 가상표 적에 대한 위치를 정확히 파악할 수 있었다. 결론 : 제작된 프레임을 적용하여 방사선투과율 측정실험, 환자 외부자세에 대한 오차 측정실험, 가상표적 위치측정 실험 등을 수행하였다. 환자 외부자세에 대한 오차 측정실험 경우, 더 많은 Volunteer를 적용하여 보다 정확한 오차 측정실험이 수행되어야 할 것이며 정확한 표적 위치 측정실험을 위해서 내부 마커를 삽입한 환자를 적용한 임상실험이 수행되어야 할 것이다. 또한 위치결정에서 획득한 좌표값의 정확성을 알아보기 위해서 팬톰을 이용한 방사선조사 실험이 추후에 실행되어져야 할 것이다. 그리고 제작된 프레임에 Rotating X선 시스템과 내부 장기의 움직임을 계량화하고 PTV에서의 최적 여유폭을 설정함으로써 정위 방사선수술 및 3 차원 업체 방사선치료에 대한 병소 위치측정과 환자의 자세에 대한 setup 오차측정 결정에 도움이 될 수 있을 것이라고 사료된다. 상대적으로 우수한 것으로 나타났으며, 혼합충전재는 암모니아의 경우 코코넛과 펄라이트의 비율이 7:3인 혼합 재료 3번과 소나무수피와 펄라이트의 비율이 7:3인 혼합 재료 6번에서 다른 혼합 재료에 비하여 우수한 것으로 나타났다. 4. 코코넛과 소나무수피의 경우 암모니아 가스에 대한 흡착 능력은 거의 비슷한 것으로 사료되며, 코코넛의 경우 전량을 수입에 의존하고 있다는 점에서 국내 조달이 용이하며, 구입 비용도 적게 소요되는 소나무수피를 사용하는 것이 경제적이라고 사료된다. 5. 마지막으로

  • PDF

운동 과정 추적의 자동화를 위한 전이 규칙 모델의 구현 (Implementation of a Transition Rule Model for Automation of Tracking Exercise Progression)

  • 정다니엘;고일주
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권5호
    • /
    • pp.157-166
    • /
    • 2022
  • 운동은 건강한 삶의 영위에 필요하지만 코로나19와 같은 전염병 유행 상황에서 비대면 환경에서 진행되는 것이 권장된다. 그러나 기존의 비대면 방식의 운동 콘텐츠에서는 운동 동작의 인식은 가능하지만 이를 해석해서 피드백 정보를 제공해주는 과정이 자동화되지 않았기 때문에 피드백이 트레이너의 눈대중으로 이루어지는 한계가 있다. 따라서 본 논문에서는 이러한 문제를 해결하기 위해서 운동 내용 및 이를 구성하는 동작을 추적하기 위해 공식화된 규칙을 만드는 방법을 제안한다. 이러한 규칙을 만들기 위해서는 전체적인 운동 내용의 진행 규칙을 먼저 만들고, 운동을 구성하는 동작의 추적 규칙을 만든다. 동작의 추적 규칙은 동작을 여러 단계로 나누고 단계를 나누는 키 프레임 자세를 정의하는 것에서 출발하여 키 프레임 자세로 대표되는 상태와 상태 간의 전이 규칙을 만듦으로써 생성될 수 있다. 이렇게 생성한 규칙은 모션 캡쳐 장비를 이용한 자세 및 동작 인식기술의 사용을 전제로 하며 이러한 기술 적용의 자동화를 위한 논리적인 전개에 사용된다. 본 논문에서 제안한 규칙을 사용하면 운동 과정에서 나타나는 동작을 인식하는 것뿐만 아니라 동작의 전 과정에 대한 해석의 자동화가 가능하여 인공지능 트레이닝 시스템 등 보다 진보된 콘텐츠 제작이 가능해진다. 이에 따라 운동 과정에 대한 피드백의 질을 높일 수 있다.

맥스 스크립트를 이용한 바이페드 애니메이션 합성 (Bipeds Animation Blending By 3D Studio MAX Script)

  • 최홍석;정재욱
    • 감성과학
    • /
    • 제12권3호
    • /
    • pp.259-266
    • /
    • 2009
  • 오늘날 3D 캐릭터 애니메이션은 실사영화, 애니메이션, 게임, 광고 등 대다수의 영상물에서 쉽게 접할 수 있다. 하지만, 이러한 캐릭터의 부드러운 움직임은 모션캡쳐(Motion Capture)와 같은 고가의 장비를 통해 얻어진 데이터를 숙련된 애니메이터들이 오랜 시간 키 프레임(Key Frame)을 수정함으로써 얻어진다. 경우에 따라서는 애니메이터 개인의 감성적 기준에 따라 제작되어진 캐릭터의 행동이 관객들의 보편적 기대치와 다를 때도 있는데, 이것은 제작되어진 캐릭터의 행동과 관객들의 감성반응에 대한 객관적 관계식이 정립되지 못했기 때문이다. 3D 캐릭터의 걸음걸이를 대상으로 한 본 연구에서는 상기의 관계식 추출과 정립을 위한 실험장비로서 3D Studio MAX Script를 이용한 3차원 회전의 연산 툴을 제안한다. $2{\sim}3$개의 바이패드 데이터 수정과 합성을 주요기능으로 삼고 있는 이 툴을 통해 걸음걸이와 감성반응 사이의 정량적 관계식에 접근하기 위한 다양한 연구가 용이하게 되었다.

  • PDF

모션 데이터의 PCA투영에 의한 3차원 아바타의 실시간 표정 제어 (Realtime Facial Expression Control of 3D Avatar by PCA Projection of Motion Data)

  • 김성호
    • 한국멀티미디어학회논문지
    • /
    • 제7권10호
    • /
    • pp.1478-1484
    • /
    • 2004
  • 본 논문은 사용자로 하여금 얼굴표정들의 공간으로부터 일련의 표정을 실시간적으로 선택하게 함으로써 3차원 아바타의 실시간적 얼굴 표정을 제어하는 기법을 기술한다. 본 시스템에서는 약 2400여개의 얼굴 표정 프레임을 이용하여 표정공간을 구성하였다. 본 기법에서는 한 표정을 표시하는 상태표현으로 얼굴특징점들 간의 상호거리를 표시하는 거리행렬을 사용한다. 이 거리행렬의 집합을 표정공간으로 한다. 3차원 아바타의 얼굴 표정은 사용자가 표정공간을 항해하면서 실시간적으로 제어한다. 이를 도와주기 위해 표정공간을 PCA투영 기법을 이용하여 2차원 공간으로 가시화했다. 본 시스템이 어떤 효과가 있는지를 알기 위해 사용자들로 하여금 본 시스템을 사용하여 3차원 아바타의 얼굴 표정을 제어하게 했는데, 본 논문은 그 결과를 평가한다.

  • PDF

고속도로 CCTV카메라 영상에서 차량 추적에 의한 교통정보 수집 알고리즘 (An Algorithm for Traffic Information by Vehicle Tracking from CCTV Camera Images on the Highway)

  • 민준영
    • 디지털콘텐츠학회 논문지
    • /
    • 제3권1호
    • /
    • pp.1-9
    • /
    • 2002
  • 본 논문은 고속토로에 설치되어 있는 CCTV카메라 영상을 이용하여 자동으로 교통정보를 수집할 수 있도록 영상검지기 기능을 부가하는 방법을 제안한다. 현행 고속도로 영상검지기에서 수집되는 교통정보는 차로별로 교통정보를 검지하여 수집할 수 있으나 이 방법은 대형차량이 지나가는 경우 Occlusion에 의한 오 검지 빈도가 빈번히 발생하고 있다. 또한 이 Occlusion의 영향으로 고속도로 8차로 중 최고 6차로까지만 검지가 가능하고 그 이상의 차로를 검지한다는 것은 불가능하다. 따라서 본 논문에서는 교통정보를 차로볕 검지를 하지 않고 전체 차로를 포함하는 검지영역을 설정한 다음 다음 이 검지영역 안에서 차량이 통과할 때까지 개별차량을 추적하여 교통정보를 수집함으로써 고속도로 8차로까지 검지가 가능한 알고리즘을 제안한다. 본 연구는 실제 경부고속도로 상행선 기흥IC에 실험용 CCTV카메라를 설치하여 획득한 영상과, 청계터널 앞 도로에서 녹화한 영상을 대상으로 실험을 하였으며, 영상처리는 frame-grabber보드에서 초당 30프레임으로 캡쳐를 한 다음 $640{\times}480$ 해상도와 빠른 데이터 처리를 위해서 256 gray-level로 영상처리를 하였다.

  • PDF