• 제목/요약/키워드: 합성 영상

검색결과 1,476건 처리시간 0.03초

3차원 모델 기반 영상전송 시스템에서의 특징점 추출과 영상합성 연구 (A Study on the Feature Point Extraction and Image Synthesis in the 3-D Model Based Image Transmission System)

  • 배문관;김동호;정성환;김남철;배건성
    • 한국통신학회논문지
    • /
    • 제17권7호
    • /
    • pp.767-778
    • /
    • 1992
  • 3-D 모델 기반 부호화 시스템에서 특징점 추출과 영상합성에 대하여 연구하였다. 얼굴의 특징점들은 영상처리 기술들과 얼굴에 대한 사전지식을 이용하여 자동적으로 추출된다. 추출된 얼굴의 특징점들을 이용하여 얼굴에 정합된 철선 프레임을 특징점의 움직임에 따라 변형시킨다. 변형된 철선 프레임 위에 초기 정면 영상의 질감을 매핑함으로써 합성영상이 만들어진다. 실험결과, 합성영상은 부자연스러움이 거의 나타나지 않았다.

  • PDF

사실적인 렌더링을 위한 분할된 HDR 영상으로부터의 광원 추정 기법 (Light Source Estimation for Realistic Rendering using Segmented HDR Images)

  • 유재덕;조지호;이관행
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2007년도 춘계학술발표대회
    • /
    • pp.671-674
    • /
    • 2007
  • 현재 다양한 분야(영화, 광고, AR 등)에서 영상합성 기법이 많이 사용되고 있다. 실제 영상에 가상의 객체를 합성하거나 가상의 환경에 객체를 합성하는 경우 등 영상과 객체간의 사실적인 합성결과를 얻기 위해서는 실제 환경에 적용된 광원의 정보가 필요하다. 본 논문에서는 실 세계 조명 정보를 표현하는 HDR(High Dynamic Range) 영상을 이용하여 실 세계의 광원을 추정하는 기법을 제안한다. 광원 추정을 위해 노출 시간을 달리한 일련의 LDR(Low Dynamic Range) 영상으로부터 실 세계정보를 선형적으로 표현할 수 있는 HDR 영상을 생성한다. HDR 영상을 가시화 한 후 영상에 나타나는 밝기 값을 기반으로 영상을 분할하고 분할된 영상들이 나타내는 빛의 세기에 비례하여 방향성 광원을 추정한다. 추정된 조명조건을 이용하여 IBL(Image Based Lighting)등의 전역조명 효과와 유사한 결과를 얻을 수 있으며 소수의 광원을 추정함으로써 실시간 렌더링이 중요한 가상현실이나 증강 현실 분야에도 적용할 수 있다. 또한 분할된 영상들로부터 광원을 추정하기 때문에 각각의 영상들이 오브젝트에 나타내는 조명효과도 확인할 수 있다.

차량 후방 감시 차량을 위한 파노라마 영상 구현 (Implementation of Panorama Image for Monitoring Rear View of Vehicle)

  • 권구락;안영은;박종안
    • 한국ITS학회:학술대회논문집
    • /
    • 한국ITS학회 2008년도 제7회 추계학술대회 및 정기총회
    • /
    • pp.537-538
    • /
    • 2008
  • 디지털 영상 기기의 발전과 함께 화질의 선명도와 해상도가 향상되면서 더 많은 영상 정보를 한 화면에 담고자 하는 시도로서 파노라마 영상 합성기법을 차량 주차시 운전자의 넓은 영상확보를 위해 구현한다. 본 논문에서는 파노라마 영상 생성 장치 및 방법과 파노라마 영상에 기반한 차량 후방 감시 장치에 관한 것이다. 차량 후방 감시용으로 두 대의 CCD 카메라 장비를 이용하여 촬영 기술상의 제한 또는 요구 없이 획득되는 영상 시퀀스로부터 영상을 분석하고 합성한다는 조건하에 수행되어지며, 카메라 움직임의 모델링, 변환식에 의한 합성 영상의 재구성, 후처리 기술을 접목한다. 첫 단계에서는 두 영상의 중첩 영역을 획득하고 두 번째 단계에서는 중첩된 영상을 기준으로 파노라마 영상을 구현하는 것이다.

  • PDF

기상레이더 합성영상 종류별 면적강수량 추정오차 (Area Rainfall Estimation Error for Each Types of Weather Radar Composite Images)

  • 김태정;김장경;송재현;이충대;권현한
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2023년도 학술발표회
    • /
    • pp.310-310
    • /
    • 2023
  • 기상레이더는 강우의 공간분포를 관측하고 강우장 이동특성을 예측하여 집중호우, 태풍 등에 대비할 수 있는 시간을 확보하기 위하여 운용되고 있다. 기상레이더는 전파를 송신하고 대기 중의물체(수상체, 건물 등)에 부딪혀 되돌아오는 신호를 수신하여 강우의 양, 분포, 이동방향 등을 산정할 수 있으며 세부적으로 입체관측(volume scan)을 반복하여 고도각 별로 거리와 방위각에 따라 다양한 합성영상을 산출할 수 있는 특성이 있다. 본 연구는 구름의 수평적 분포를 파악하는데 용이하여 기존에 널리 사용된 CAPPI 합성영상과 최근 현업에서 복잡한 지형으로 인한 오차를 해소하고자 광범위하게 사용되고 있는 다중 고도각 기반 레이더 강수량(hybrid surface rainfall, HSR) 합성영상을 취득하여 수문해석을 위한 유역단위 면적강수량의 추정오차를 검토하였다. HSR 합성영상은 우리나라와 같이 산악지형이 많이 존재하는 경우 지형의 영향을 받지 않아 지면에 가장 가까운 고도각의 관측자료를 사용하므로 지상관측소 강수량과 비교한 결과에서 기존의 CAPPI 합성영상 레이더 강수량과 통계적 효율 기준을 산정하여 레이더 강수의 품질이 개선되는 것을 확인하였다. 최근 환경부에서 추진하고 있는 인공지능(AI) 홍수예보 및 가상모형(Digital Twin)을 활용하여 홍수정보를 생산 및 전달하는 과정에서 유역의 지형적 특성을 현실적으로 고려한 레이더 강수량을 사용함으로 기후변화에 따라 국지적으로 발생하는 집중호우 대응 및 과학적 홍수관리를 실현할 수 있을 것으로 판단된다.

  • PDF

적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구 (Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks)

  • 최희조;박구만
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권11호
    • /
    • pp.465-472
    • /
    • 2022
  • 본 연구에서는 기존의 동영상 합성 네트워크에 스타일 합성 네트워크를 접목시켜 동영상에 대한 스타일 합성의 한계점을 극복하고자 한다. 본 논문의 네트워크에서는 동영상 합성을 위해 스타일갠 학습을 통한 스타일 합성과 동영상 합성 네트워크를 통해 스타일 합성된 비디오를 생성하기 위해 네트워크를 학습시킨다. 인물의 시선이나 표정 등이 안정적으로 전이되기 어려운 점을 개선하기 위해 3차원 얼굴 복원기술을 적용하여 3차원 얼굴 정보를 이용하여 머리의 포즈와 시선, 표정 등의 중요한 특징을 제어한다. 더불어, 헤드투헤드++ 네트워크의 역동성, 입 모양, 이미지, 시선 처리에 대한 판별기를 각각 학습시켜 개연성과 일관성이 더욱 유지되는 안정적인 스타일 합성 비디오를 생성할 수 있다. 페이스 포렌식 데이터셋과 메트로폴리탄 얼굴 데이터셋을 이용하여 대상 얼굴의 일관된 움직임을 유지하면서 대상 비디오로 변환하여, 자기 얼굴에 대한 3차원 얼굴 정보를 이용한 비디오 합성을 통해 자연스러운 데이터를 생성하여 성능을 증가시킴을 확인했다.

Retinex 기반의 가상 노출 이미지 생성을 통한 HDR 영상 생성 방법 (Retinex-based Virtually Exposed Image Fusion for Single Image HDR)

  • 박재성;길태호;황인성;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 하계학술대회
    • /
    • pp.242-245
    • /
    • 2016
  • 본 논문에서는 단일 노출 영상으로부터 다수의 가상 노출 영상을 생성하고, 그 영상을 한 장의 HDR 영상으로 합성하여 SDR 디스플레이 시스템에 개선된 화질의 영상을 보여주도록 하는 방법을 제안한다. 이 방법에서는 주어진 단일 노출 영상을 Retinex 이론을 적용하여 조명 성분과 반사 성분으로 분리하고, 새로운 노출 조절 알고리즘을 제안하여 다수의 가상 조명 성분과 원본 이미지의 반사 성분을 생성하며 이들을 이용하여 다수의 가상 노출 영상을 생성한다. 생성된 다수의 가상 노출 영상은 가중치 합성 함수에 의해서 암부의 세부 표현력이 개선되고 명암비가 높아져 SDR display 에서도 우수한 화질의 HDR 영상으로 변환된다. 기존에 제안된 알고리즘과 비교 실험을 통해, 본 논문에서 제안된 HDR 영상 합성 기법의 성능을 증명한다.

  • PDF

정교한 매치무비를 위한 3D 카메라 트래킹 기법에 관한 연구 (Correcting 3D camera tracking data for video composition)

  • 이준상;이임건
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2012년도 제46차 하계학술발표논문집 20권2호
    • /
    • pp.105-106
    • /
    • 2012
  • 일반적으로 CG 합성이라 하면 '자연스러운' 것을 잘된 CG영상이라고 한다. 이 때 촬영된 영상이 정지화면 일 수 만은 없다. 카메라가 움직이는 영상에서는 CG합성도 실사카메라 무빙에 맞게 정확한 정합이 되어야 자연스러운 영상이 된다. 이를 위해 합성단계에서 작업할 때 3D 카메라 트래킹 기술이 필요하다. 카메라트래킹은 촬영된 실사영상만으로 카메라의 3차원 이동정보와 광학적 파라미터 등 촬영시의 3차원 공간을 복원하는 과정을 포함하고 있다. 이 과정에서 카메라 트래킹에 대한 오류의 발생으로 실사와 CG의 합성에 대한 생산성에 많은 문제점을 가지고 있다. 본 논문에서는 이러한 문제를 해결하기 위하여 소프트웨어에서 트래킹데이터를 보정하는 방법을 제안한다.

  • PDF

가상시점 영상합성을 위한 깊이 영상 보간법 (Depth Map Interpolation for Virtual View Synthesis)

  • 김도영;호요성
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2012년도 춘계학술발표대회논문집
    • /
    • pp.426-427
    • /
    • 2012
  • 본 논문은 부호화된 저해상도의 깊이 영상과 고해상도의 색상 영상을 입력으로 고해상도의 깊이 영상을 생성하는 새로운 방법을 제안한다. 제안하는 방법은 결합 양측 필터를 이용하여 저해상도 깊이 영상의 경계 정보를 향상시킨다. 그런 다음, 깊이 영상 보간 단계에서 향상된 경계 정보를 참조하여 고품질 고해상도의 깊이 영상을 생성한다. 실험을 통한 깊이 영상과 합성영상의 화질 평가에서, 제안하는 방법이 기존의 3DV-ATM 깊이 영상 보간법보다 높은 성능을 보인다.

  • PDF

표정짓고 말하는 가상 얼굴의 실시간 합성 (Realtime Synthesis of Virtual Faces with Facial Expressions and Speech)

  • 송경준;이기영;최창석;민병의
    • 한국음향학회지
    • /
    • 제17권8호
    • /
    • pp.3-11
    • /
    • 1998
  • 본 논문에서는 고품질의 얼굴 동영상과 운율이 첨가된 음성을 통합하여 자연스런 가상얼굴을 실시간으로 합성하는 방법을 제안한다. 이 방법에서는 한글 텍스트를 입력하여, 텍스트에 따라 입모양과 음성을 합성하고, 얼굴 동영상과 음성의 동기를 맞추고 있다. 먼저, 텍스트를 음운 변화한 후, 문장을 분석하고 자모음사이의 지속시간을 부여한다. 자모음과 지 속시간에 따라 입모양을 변화시켜 얼굴 동영상을 생성하고 있다. 이때, 텍스트에 부합한 입 모양 변화뿐만 아니라, 두부의 3차원 동작과 다양한 표정변화를 통하여 자연스런 가상얼굴 을 실시간으로 합성하고 있다. 한편, 음성합성에서는 문장분석 결과에 따라 강세구와 억양구 를 정하고 있다. 강세구와 억양구를 이용하여 생성된 운율모델이 고품질의 음성합성에 필요 한 지속시간, 억양 및 휴지기를 제어한다. 합성단위는 무제한 어휘가 가능한 반음절과 triphone(VCV)의 조합이며, 합성방식은 TD-PSOLA를 사용한다.

  • PDF

스테레오 혼합 현실 영상 합성을 위한 계층적 변이 추정 (Hierarchical Disparity Estimation for Image Synthesis in Stereo Mixed Reality)

  • 김한성;최승철;손광훈
    • 방송공학회논문지
    • /
    • 제7권3호
    • /
    • pp.229-237
    • /
    • 2002
  • 본 논문에서는 혼합현실의 핵심 기술인 실사와 가상 영상의 합성을 위해 스테레오 영상의 특성을 고려하여 효율적으로 미세 변이를 추정하는 알고리듬과, 추정된 깊이 정보를 이용해 영상을 자연스럽게 합성하는 알고리듬을 제안하며, 이를 모의실험을 통해 검증한다. 제안 방법은 낮은 해상도의 영상으로부터 고해상도로 변이를 찾아가는 계층적 변이 추정 방식으로, 영역분할 양방향 화소정합을 통해 변이 추정의 수행 속도를 향상시키는 동시에 신뢰도를 높이며, 에지 정보를 참조하여 화소 단위로 미세 변이를 할당하게 된다. 이렇게 추정된 깊이 정보는 모델링된 가상 객체의 깊이 정좌와의 비교를 통해 혼합 현실 스테레오 영상으로 합성된다. 제안된 방식을 통해 매우 안정적이면서도 경계 부분이 정확한 변이 정보를 얻을 수 있었고, 3차원 영상의 합성에 효율적으로 사용될 수 있음을 실험을 통해 확인하였다.