• 제목/요약/키워드: 비디오 합성

검색결과 172건 처리시간 0.023초

영상 콘텐츠 제작에서 비디오 합성 효과에 관한 연구 (A Study in Video Composition Effectiveness for Moving Picture Contents Production)

  • 주헌식
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2014년도 제50차 하계학술대회논문집 22권2호
    • /
    • pp.273-274
    • /
    • 2014
  • 본 논문에서는 비디오 콘텐츠 제작에서 비디오 영상의 합성 효과에 대해서 제안한다. 비디오는 동화상으로 정지 영상에 움직임을 주어 동화상으로 나타낸다. 즉 프레임의 움직임으로 영화는 24 프레임을 TV는 30프레임으로 영상을 전송한다. 영상은 비디오카메라나 여러 광학 렌즈를 통하여 촬영하여 영상을 얻게 되는데 자연 현상을 촬영하여 영상을 얻거나 목적과 필요에 따라 다양한 편집 방법과 효과로 영상을 얻게 된다. 촬영한 영상은 자연 그대로의 메시지를 가지고 있지만 영상의 효과를 주기 위해서 다양한 비디오 효과나 합성을 통하여 새로운 영상을 얻게 된다. 따라서 이러한 영상은 시각 효과가 크고, 메시지 전달의 효과를 갖는다. 본 연구에서는 비디오 영상을 보다 효과적으로 나타내기 위해서 합성을 적용하며, 정지 영상 기법과 동영상 기법의 적용하여 효과에 대한 비교를 나타낸다.

  • PDF

웨이블릿을 사용한 디지털 동영상의 AR 영상 합성 기법 (A Study of AR Image Synthesis Technology Using Wavelet Transform in Digital Video)

  • 김혜경;김용균;오해석
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 봄 학술발표논문집 Vol.28 No.1 (B)
    • /
    • pp.577-579
    • /
    • 2001
  • 본 논문에서는 웨이블릿 변환 기법으로 키프레임을 분석하여 객체 영역을 추출함과 동시에 가상의 객체 영상을 현실감있게 합성하는 기술에 대하여 연구하였다. 가상의 객체 영상이나 실물체 영상을 비디오 영상내에 삽입하여 좀 더 현실감있는 새로운 동영상 비디오 데이터를 제작하는 데 초점을 맞추어 연구를 진행하였다. 웨이블릿 변환이 새로운 영상을 재구성하는데 커다란 기여를 하였으며 본 논문에서 제시한 AR 영상 합성 기법은 동영상 데이터를 합성하는데 사용자가 원하는 지점에 정확하게 영상의 특성정보를 충분히 잘 살린 새로운 방법의 시도였다. 또한, 영상의 캘리브 레이션 방법을 거치지 않고 비디오 영상의 회전행렬과 위치성분을 계산하여 매핑된 가상의 객체 영상을 영상 보간법을 적용하여 직접 가사의 객체 영상을 비디오 객체 영상을 비디오 영상열에 삽입한다. 제시한 영상 합성 기법은 가상의 객체 영상이 디지털 동영상내에 삽입되었을 때 가장 큰 문제점인 떨림 현상과 부조화 현상이 제거되었다.

  • PDF

적대적 생성 신경망을 통한 얼굴 비디오 스타일 합성 연구 (Style Synthesis of Speech Videos Through Generative Adversarial Neural Networks)

  • 최희조;박구만
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권11호
    • /
    • pp.465-472
    • /
    • 2022
  • 본 연구에서는 기존의 동영상 합성 네트워크에 스타일 합성 네트워크를 접목시켜 동영상에 대한 스타일 합성의 한계점을 극복하고자 한다. 본 논문의 네트워크에서는 동영상 합성을 위해 스타일갠 학습을 통한 스타일 합성과 동영상 합성 네트워크를 통해 스타일 합성된 비디오를 생성하기 위해 네트워크를 학습시킨다. 인물의 시선이나 표정 등이 안정적으로 전이되기 어려운 점을 개선하기 위해 3차원 얼굴 복원기술을 적용하여 3차원 얼굴 정보를 이용하여 머리의 포즈와 시선, 표정 등의 중요한 특징을 제어한다. 더불어, 헤드투헤드++ 네트워크의 역동성, 입 모양, 이미지, 시선 처리에 대한 판별기를 각각 학습시켜 개연성과 일관성이 더욱 유지되는 안정적인 스타일 합성 비디오를 생성할 수 있다. 페이스 포렌식 데이터셋과 메트로폴리탄 얼굴 데이터셋을 이용하여 대상 얼굴의 일관된 움직임을 유지하면서 대상 비디오로 변환하여, 자기 얼굴에 대한 3차원 얼굴 정보를 이용한 비디오 합성을 통해 자연스러운 데이터를 생성하여 성능을 증가시킴을 확인했다.

모바일 ad-hoc 네트워크에서 멀티미디어 트래픽 전송 (Transmission of Multimedia Traffic over Mobile Ad-hoc Networks)

  • 김영동
    • 한국정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.95-101
    • /
    • 2005
  • 본 논문에서는 모바일 에드혹 네트워크에서 멀티미디어 트래픽의 전송특성을 시뮬레이션으로 연구하였다. 시뮬레이션에서는 멀티미디어 트래픽으로 MPEG 비디오 형식의 합성 스트리밍 비디오를 사용하였으며, 합성 스트리밍 비디오는 비디오 스티림 알고리즘을 사용하여 생성하였다. 비디오 합성 알고리즘은 I(intra-coded), P(predicted-coded), B(bidirectional-coded) 프레임 열로 구성되는 특정 GOP(group of pictures) 패턴을 사용하여 MPEG 비디오 스트림에 대응하는 VBR 트래픽을 생성한다. 이 합성 VBR 스트림을 모바일 애드혹 네트워크 상에서 UDP 프로토콜을 사용하여 전송하였으며, 라우팅 프로토콜로는 AODV와 DSR을 사용하였다. 모바일 에드혹 네트워크의 비디오 스트림 전송성능으로서 패킷지연, 패킷전달율 및 수율을 분석하였으며, 데이터 트래픽과 비디오 트래픽의 전송수율을 비교하여 보았다.

단안 비디오로부터의 5D 라이트필드 비디오 합성 프레임워크 (Deep Learning Framework for 5D Light Field Synthesis from Single Video)

  • 배규호;;박인규
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.150-152
    • /
    • 2019
  • 본 논문에서는 기존의 연구를 극복하여 단일 영상이 아닌 단안 비디오로부터 5D 라이트필드 영상을 합성하는 딥러닝 프레임워크를 제안한다. 현재 일반적으로 사용 가능한 Lytro Illum 카메라 등은 초당 3프레임의 비디오만을 취득할 수 있기 때문에 학습용 데이터로 사용하기에 어려움이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 가상 환경 데이터를 구성하며 이를 위해 UnrealCV를 활용하여 사실적 그래픽 렌더링에 의한 데이터를 취득하고 이를 학습에 사용한다. 제안하는 딥러닝 프레임워크는 두 개의 입력 단안 비디오에서 $5{\times}5$의 각 SAI(sub-aperture image)를 갖는 라이트필드 비디오를 합성한다. 제안하는 네트워크는 luminance 영상으로 변환된 입력 영상으로부터 appearance flow를 추측하는 플로우 추측 네트워크(flow estimation network), appearance flow로부터 얻어진 두 개의 라이트필드 비디오 프레임 간의 optical flow를 추측하는 광학 플로우 추측 네트워크(optical flow estimation network)로 구성되어있다.

  • PDF

비디오 영상에서의 비보정 3차원 좌표 복원을 통한 가상 객체의 비디오 합성 (Video Augmentation of Virtual Object by Uncalibrated 3D Reconstruction from Video Frames)

  • 박종승;성미영
    • 한국멀티미디어학회논문지
    • /
    • 제9권4호
    • /
    • pp.421-433
    • /
    • 2006
  • 본 논문에서는 비디오에서 비보정 3차원 좌표의 복원과 카메라의 움직임 추정을 통하여 가상 객체를 비디오에 자연스럽게 합성하는 방법을 제안한다. 비디오의 장면에 부합되도록 가상 객체를 삽입하기 위해서는 장면의 상대적인 구조를 얻어야 하고 비디오 프레임의 흐름에 따른 카메라 움직임의 변화도 추정해야 한다. 먼저 특장점을 추적하고 비보정 절차를 수행하여 카메라 파라메터와 3차원 구조를 복원한다. 각 프레임에서 카메라 파라메터들을 고정시켜 촬영하고 이들 카메라 파라메터는 일정 프레임 동안 불변으로 가정하였다. 제안된 방법으로 세 프레임 이상에서 작은 수의 특징점 만으로도 올바른 3차원 구조를 얻을 수 있었다. 가상객체의 삽입 위치는 초기 프레임에서 특정 면의 모서리점의 대응점을 지정하여 결정한다. 가상 객체의 투사 영역을 계산하고 이 영역에 이음새가 없도록 텍스처를 혼합하여 가상객체와 비디오의 부자연스러운 합성 문제를 해결하였다. 제안 방법은 비보정 절차를 선형으로만 구현하여 기존의 방법에 비해서 안정성과 수행속도의 면에서 우수하다. 실제 비디오 스트림에 대한 다양한 실험을 수행한 결과 여러 증강현실 응용 시스템에 유용하게 사용될 수 있음을 입증하였다.

  • PDF

NAFNet 기반 개선된 비디오 프레임 보간 기법 (Enhanced video frame interpolation based on NAFNet)

  • 윤기환;정진우;김성제;허진강
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.1333-1335
    • /
    • 2022
  • 최근 딥러닝은 다양한 컴퓨터 비전에 적용되어 높은 성능을 제공하고 있고 이에 따라 중간 프레임을 생성하는 비디오 프레임 보간 기법에도 딥러닝이 적용되고 있다. 많은 딥러닝 기반의 비디오 프레임 보간 기법은 크게 옵티컬 플로우를 추정하는 플로우 추정 네트워크와 합성 네트워크로 구성되며 본 논문에서는 합성 네트워크 부분의 성능향상을 위한 네트워크에 대하여 다룬다. 합성 네트워크에 주로 사용되는 UNet 구조와 GridNet 구조의 장단점과 네트워크에 따른 보간 결과의 차이에 대해서 알아보고 영상 복원에서 제안된 NAFNet 을 비디오 보간 기법에 맞게 변형시켜 합성 네트워크에 적용한 보간 결과의 차이를 보였다. 실험결과는 기존 네트워크 대비 Vimeo90K 데이터셋에 대하여 PSNR 값이 0.63dB 개선됨을 보여준다.

  • PDF

단안 비디오로부터의 5차원 라이트필드 비디오 합성 (5D Light Field Synthesis from a Monocular Video)

  • 배규호;안드레 이반;박인규
    • 방송공학회논문지
    • /
    • 제24권5호
    • /
    • pp.755-764
    • /
    • 2019
  • 현재 사용 가능한 상용 라이트필드 카메라는 정지 영상만을 취득하거나 가격이 매우 높은 단점으로 인하여 5차원 라이트필드 비디오 취득에 어려움이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 단안 비디오로부터 라이트필드 비디오를 합성하기 위한 딥러닝 기반 기법을 제안한다. 라이트필드 비디오 학습 데이터를 취득하기 어려운 문제를 해결하기 위하여 UnrealCV를 활용하여 3차원 그래픽 장면의 사실적 렌더링에 의한 합성 라이트필드 데이터를 취득하고 이를 학습에 사용한다. 제안하는 딥러닝 프레임워크는 입력 단안 비디오에서 $9{\times}9$의 각 SAI(sub-aperture image)를 갖는 라이트필드 비디오를 합성한다. 제안하는 네트워크는 밝기 영상으로 변환된 입력 영상으로부터 appearance flow를 추정하는 네트워크, appearance flow로부터 얻어진 인접한 라이트필드 비디오 프레임간의 optical flow를 추정하는 네트워크로 구성되어 있다.

파노라믹 영상 모델에 근거한 파라메트릭 비디오 압축 (Parametric Video Compression Based on Panoramic Image Modeling)

  • 심동규
    • 대한전자공학회논문지SP
    • /
    • 제43권4호
    • /
    • pp.96-107
    • /
    • 2006
  • 본 논문에서는 파노라믹 영상 모델링에 근거한 비디오 압축 전송 방법을 제안한다. 제안한 방법은 회전 카메라에 입력되는 영상에서 배경 영상과 움직이는 물체로 분리하고 차영상을 추출하여 압축/전송하는 방법을 사용한다. 제안한 비디오 압축 시스템은 초기화 과정에서 전송된 파노라믹 영상으로부터 배경영상을 합성할 수 있도록 파라메터 만을 전송하게 된다. 본 논문 에서는 정확한 배경 합성을 위한 정확한 카메라 모델링 기반 파노라믹 영상 합성법을 제시하며, 이를 바탕으로 비디오 압축에 응용하는 방법을 제안하였다. 제안한 비디오 압축방법에 의하여 기존의 JPEG-2000이나 MPEG-4 비디오 압축 방법에 비하여 PSNR 관점에서 $2{\sim}4dB$ 효율적임을 보였다.

Triplet CNN과 학습 데이터 합성 기반 비디오 안정화기 연구 (Study on the Video Stabilizer based on a Triplet CNN and Training Dataset Synthesis)

  • 양병호;이명진
    • 방송공학회논문지
    • /
    • 제25권3호
    • /
    • pp.428-438
    • /
    • 2020
  • 영상 내 흔들림은 비디오의 가시성을 떨어뜨리고 영상처리나 영상압축의 효율을 저하시킨다. 최근 디지털 영상처리 분야에 딥러닝이 본격 적용되고 있으나, 비디오 안정화 분야에 딥러닝 적용은 아직 초기 단계이다. 본 논문에서는 Wobbling 왜곡 경감을 위한 triplet 형태의 CNN 기반 비디오 안정화기 구조를 제안하고, 비디오 안정화기 학습을 위한 학습데이터 합성 방법을 제안한다. 제안한 CNN 기반 비디오 안정화기는 기존 딥러닝 기반 비디오 안정화기와 비교되었으며, Wobbling 왜곡은 감소하고 더 안정적인 학습이 이루어지는 결과를 얻었다.