• 제목/요약/키워드: 영상의 합성

검색결과 1,480건 처리시간 0.027초

영상 기반 음성합성에서 심도 영상의 유용성 (The usefulness of the depth images in image-based speech synthesis)

  • 이기승
    • 한국음향학회지
    • /
    • 제42권1호
    • /
    • pp.67-74
    • /
    • 2023
  • 발성하고 있는 입 주변에서 취득한 영상은 발성 음에 따라 특이적인 패턴을 나타낸다. 이를 이용하여 화자의 얼굴 하단에서 취득한 영상으로부터 발성 음을 인식하거나 합성하는 방법이 제안되고 있다. 본 연구에서는 심도 영상을 협력적으로 이용하는 영상 기반 음성합성 기법을 제안하였다. 심도 영상은 광학 영상에서는 관찰되지 않는 깊이 정보의 취득이 가능하기 때문에 평면적인 광학 영상을 보완하는 목적으로 사용이 가능하다. 본 논문에서는 음성 합성 관점에서 심도 영상의 유용성을 평가하고자 한다. 60개의 한국어 고립어 음성에 대해 검증 실험을 수행하였으며, 실험결과 객관적, 주관적 평가에서 광학적 영상과 근접한 성능을 얻는 것을 확인할 수 있었으며 두 영상을 조합하여 사용하는 경우 각 영상을 단독으로 사용하는 경우보다 향상된 성능을 나타내었다.

적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구 (Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks)

  • 최희조;박구만
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권11호
    • /
    • pp.465-472
    • /
    • 2022
  • 본 연구에서는 기존의 동영상 합성 네트워크에 스타일 합성 네트워크를 접목시켜 동영상에 대한 스타일 합성의 한계점을 극복하고자 한다. 본 논문의 네트워크에서는 동영상 합성을 위해 스타일갠 학습을 통한 스타일 합성과 동영상 합성 네트워크를 통해 스타일 합성된 비디오를 생성하기 위해 네트워크를 학습시킨다. 인물의 시선이나 표정 등이 안정적으로 전이되기 어려운 점을 개선하기 위해 3차원 얼굴 복원기술을 적용하여 3차원 얼굴 정보를 이용하여 머리의 포즈와 시선, 표정 등의 중요한 특징을 제어한다. 더불어, 헤드투헤드++ 네트워크의 역동성, 입 모양, 이미지, 시선 처리에 대한 판별기를 각각 학습시켜 개연성과 일관성이 더욱 유지되는 안정적인 스타일 합성 비디오를 생성할 수 있다. 페이스 포렌식 데이터셋과 메트로폴리탄 얼굴 데이터셋을 이용하여 대상 얼굴의 일관된 움직임을 유지하면서 대상 비디오로 변환하여, 자기 얼굴에 대한 3차원 얼굴 정보를 이용한 비디오 합성을 통해 자연스러운 데이터를 생성하여 성능을 증가시킴을 확인했다.

가상시점 영상합성을 위한 깊이 영상 보간법 (Depth Map Interpolation for Virtual View Synthesis)

  • 김도영;호요성
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2012년도 춘계학술발표대회논문집
    • /
    • pp.426-427
    • /
    • 2012
  • 본 논문은 부호화된 저해상도의 깊이 영상과 고해상도의 색상 영상을 입력으로 고해상도의 깊이 영상을 생성하는 새로운 방법을 제안한다. 제안하는 방법은 결합 양측 필터를 이용하여 저해상도 깊이 영상의 경계 정보를 향상시킨다. 그런 다음, 깊이 영상 보간 단계에서 향상된 경계 정보를 참조하여 고품질 고해상도의 깊이 영상을 생성한다. 실험을 통한 깊이 영상과 합성영상의 화질 평가에서, 제안하는 방법이 기존의 3DV-ATM 깊이 영상 보간법보다 높은 성능을 보인다.

  • PDF

형태 정합을 이용한 포아송 동영상 합성 (Poisson Video Composition Using Shape Matching)

  • 허경용;최훈;김지홍
    • 한국정보통신학회논문지
    • /
    • 제22권4호
    • /
    • pp.617-623
    • /
    • 2018
  • 본 논문에서는 형태 정합 및 포아송 방정식을 기반으로 객체와 배경과의 이음매가 없는 효율적인 동영상 합성 기법을 제안한다. 동영상 합성 기법은 영상 분할 과정과 영상 조합 과정으로 구성된다. 영상 분할 과정에서는 먼저 첫번째 프레임에 대해 사용자가 3 영역 지도를 설정한 후, 그랩 컷(grab cut) 알고리즘을 수행한다. 그리고 객체와 배경의 색상, 밝기, 텍스쳐 등이 유사할 경우 영상 분할의 성능이 감소될 수 있음을 감안하여, 현재 프레임과 이전 프레임 객체들 간의 형태 정합을 통해 현재 프레임에서 영상 분할된 객체를 보정한다. 영상 조합 과정에서는 포아송 방정식을 이용하여 객체와 목표 동영상의 배경이 서로 이음매 없이 조합되도록 하며, 또한 사용자가 설정한 움직임 경로에 따라 객체를 배치한다. 모의실험을 통해 제안된 방법이 합성된 동영상의 자연성 뿐만 아니라 수행 시간 면에서 우수함을 알 수 있었다.

깊이 정보를 이용한 실시간 다시점 스테레오 영상 합성 (Real-time Multiple Stereo Image Synthesis using Depth Information)

  • 장세훈;한충신;배진우;유지상
    • 한국통신학회논문지
    • /
    • 제30권4C호
    • /
    • pp.239-246
    • /
    • 2005
  • 본 논문에서는 영상의 RGB 정보와 화소단위의 8비트 깊이 정보를 이용하여 현재의 영상과 스테레오 쌍이 되는 가상의 우 영상을 생성한다. 이 과정에서 깊이 정보를 시차 정보로 변환하고, 생성된 시차정보를 이용하여 우 영상을 생성하게 된다. 또한 스테레오 영상을 합성한 후 회전(rotation)과 이동(translation) 등의 기하학적 변환을 이용하여 관찰자의 위치를 고려한 다시점 스테레오 영상을 합성하는 기법을 제안하고, 깊이 정보와 시차 정보와의 관계를 분석하여 화소 단위의 실시간 처리를 위한 LUT(look-up table) 방식의 고속 기법도 제안한다. 실험 결과 SD급 영상의 경우 8비트 깊이 정보만을 가지고 11시점의 스테레오 영상을 실시간으로 합성할 수 있다.

Retinex 기반의 가상 노출 이미지 생성을 통한 HDR 영상 생성 방법 (Retinex-based Virtually Exposed Image Fusion for Single Image HDR)

  • 박재성;길태호;황인성;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 하계학술대회
    • /
    • pp.242-245
    • /
    • 2016
  • 본 논문에서는 단일 노출 영상으로부터 다수의 가상 노출 영상을 생성하고, 그 영상을 한 장의 HDR 영상으로 합성하여 SDR 디스플레이 시스템에 개선된 화질의 영상을 보여주도록 하는 방법을 제안한다. 이 방법에서는 주어진 단일 노출 영상을 Retinex 이론을 적용하여 조명 성분과 반사 성분으로 분리하고, 새로운 노출 조절 알고리즘을 제안하여 다수의 가상 조명 성분과 원본 이미지의 반사 성분을 생성하며 이들을 이용하여 다수의 가상 노출 영상을 생성한다. 생성된 다수의 가상 노출 영상은 가중치 합성 함수에 의해서 암부의 세부 표현력이 개선되고 명암비가 높아져 SDR display 에서도 우수한 화질의 HDR 영상으로 변환된다. 기존에 제안된 알고리즘과 비교 실험을 통해, 본 논문에서 제안된 HDR 영상 합성 기법의 성능을 증명한다.

  • PDF

Light Probe를 이용한 제한된 실내 환경에 존재하는 점 광원 추정 기법 (Point Light Source Estimation from indoor environment from Light Probe)

  • 유재덕;박정욱;조지호;이관행
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2007년도 학술대회 1부
    • /
    • pp.494-499
    • /
    • 2007
  • 실제 영상과 가상의 오브젝트 또는 가상의 환경에 오브젝트를 합성하는 경우 등 사실적인 합성을 결과를 얻기 위해서는 실제 환경과 같은 배경 영상의 정확한 광원 정보가 필요하다. 본 논문에서는 실내 환경을 배경으로 영상을 합성 하는 과정에 필요한 광원정보를 카메라와 Light Probe를 이용하여 촬영된 단일 영상으로부터 추정하는 기법을 제안한다. 실내에 존재하는 광원들은 정확한 위치정보를 알 수 없는 실외환경에서와 달리 제한된 공간의 원점으로부터 3차원 공간에 위치한 좌표로 나타낼 수 있다. 광원을 추정하기 위해 먼저 실내 공간에 반사도가 높은 Light Probe를 위치하고 디지털 카메라의 적정 노출을 이용하여 광원 추정에 사용할 영상을 획득한다. 광원으로 존재하는 오브젝트의 경우 짧은 노출시간에도 카메라의 영상에 획득된다. 그렇기 때문에 단일 영상에서 광원의 영역을 추정하기 위해 영상처리를 통해 노출 시간을 짧게 하여 촬영한 영상과 비슷하게 밝은 영역만 표현되도록 처리를 한다. 전 처리된 영상으로부터 밝은 영역과 어두운 영역으로 구분을 하고 밝은 영역으로부터 광원의 정보를 추정한다. 추정된 광원들은 실제 렌더링에 곧바로 적용이 가능하며, 이를 통해 배경에 적합한 렌더링 결과를 얻을 수 있다.

  • PDF

다시점 영상의 가상시점 합성을 위한 깊이 및 수퍼픽셀 기반 가중치 블렌딩 방법 (Depth and Superpixel Based Weighted Blending for Virtual View Synthesis)

  • 윤준영;신홍창;박종일
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.231-233
    • /
    • 2019
  • 본 논문에서는 다시점 영상과 스테레오 매칭을 수행하여 얻은 깊이 정보를 통해 가상시점을 합성할 때 적용되는 블렌딩 기법을 제안한다. 다시점 영상에서 스테레오 매칭으로 얻을 수 있는 깊이정보는 물체와 배경의 경계부분에서 큰 오차를 갖는다. 이러한 이유로 원본 시점들의 영상을 깊이정보를 통해 특정 가상시점으로 워핑할 때 물체의 경계 부분에 배경의 화소가 일부 포함되는 문제가 발생한다. 이 문제는 워핑된 영상들을 블렌딩하여 하나로 합성 시 영상의 품질에 영향을 주는 요인이 된다. 본 논문에서 제안하는 방법은 깊이정보와 함께 영상의 수퍼픽셀 분할에서 얻은 정보를 이용하여 블렌딩 대상이 되는 영상에 화소 단위로 가중치를 부여하여 해당 문제의 영향을 완화한다.

  • PDF

정교한 매치무비를 위한 3D 카메라 트래킹 기법에 관한 연구 (Correcting 3D camera tracking data for video composition)

  • 이준상;이임건
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2012년도 제46차 하계학술발표논문집 20권2호
    • /
    • pp.105-106
    • /
    • 2012
  • 일반적으로 CG 합성이라 하면 '자연스러운' 것을 잘된 CG영상이라고 한다. 이 때 촬영된 영상이 정지화면 일 수 만은 없다. 카메라가 움직이는 영상에서는 CG합성도 실사카메라 무빙에 맞게 정확한 정합이 되어야 자연스러운 영상이 된다. 이를 위해 합성단계에서 작업할 때 3D 카메라 트래킹 기술이 필요하다. 카메라트래킹은 촬영된 실사영상만으로 카메라의 3차원 이동정보와 광학적 파라미터 등 촬영시의 3차원 공간을 복원하는 과정을 포함하고 있다. 이 과정에서 카메라 트래킹에 대한 오류의 발생으로 실사와 CG의 합성에 대한 생산성에 많은 문제점을 가지고 있다. 본 논문에서는 이러한 문제를 해결하기 위하여 소프트웨어에서 트래킹데이터를 보정하는 방법을 제안한다.

  • PDF

표정짓고 말하는 가상 얼굴의 실시간 합성 (Realtime Synthesis of Virtual Faces with Facial Expressions and Speech)

  • 송경준;이기영;최창석;민병의
    • 한국음향학회지
    • /
    • 제17권8호
    • /
    • pp.3-11
    • /
    • 1998
  • 본 논문에서는 고품질의 얼굴 동영상과 운율이 첨가된 음성을 통합하여 자연스런 가상얼굴을 실시간으로 합성하는 방법을 제안한다. 이 방법에서는 한글 텍스트를 입력하여, 텍스트에 따라 입모양과 음성을 합성하고, 얼굴 동영상과 음성의 동기를 맞추고 있다. 먼저, 텍스트를 음운 변화한 후, 문장을 분석하고 자모음사이의 지속시간을 부여한다. 자모음과 지 속시간에 따라 입모양을 변화시켜 얼굴 동영상을 생성하고 있다. 이때, 텍스트에 부합한 입 모양 변화뿐만 아니라, 두부의 3차원 동작과 다양한 표정변화를 통하여 자연스런 가상얼굴 을 실시간으로 합성하고 있다. 한편, 음성합성에서는 문장분석 결과에 따라 강세구와 억양구 를 정하고 있다. 강세구와 억양구를 이용하여 생성된 운율모델이 고품질의 음성합성에 필요 한 지속시간, 억양 및 휴지기를 제어한다. 합성단위는 무제한 어휘가 가능한 반음절과 triphone(VCV)의 조합이며, 합성방식은 TD-PSOLA를 사용한다.

  • PDF