• 제목/요약/키워드: 동영상합성

검색결과 60건 처리시간 0.031초

3차원 동영상 정보처리용 영상 입출력 기술 (An Input/Output Technology for 3-Dimensional Moving Image Processing)

  • 손정영;천유식
    • 전자공학회논문지S
    • /
    • 제35S권8호
    • /
    • pp.1-11
    • /
    • 1998
  • 차세대 정보 통신 서비스의 고도화를 위해 추구되는 핵심 기술 중의 하나가 가시화를 통한 실감(Sensation of Reality) 서비스의 구현이다. 정보 통신 서비스의 가시화를 통한 실감화는 3차원 동영상 통신 기술의 개발없이는 구현이 불가능하다. 3차원 동영상 통신의 구현에 있어 가장 큰 문제점은 3차원 동영상에 포함된 많은 정보량을 전송할 수 있는 전송 기술과 3차원 영상을 촬영하고 실시간으로 표시할 수 있는 기술이 아직 확립되어 있지 않다는 것이다. 현재 확립되어 있는 3차원 동영상 기술은 주로 입체 방식(Stereoscopic Type)으로 실감을 얻기가 어렵다. 입체영상 보다 실감을 더해 주는 영상은 눈의 움직임과 함께 입체 영상이 연속적으로 변하게 하는 다시점(Multiview) 3차원 영상이다. 다시점 3차원 영상시스템을 8대의 카메라와 빔 프로젝터 그리고 홀로그래픽 스크린을 이용하는 시분할(Time Multiplexing) 방식에 의해 구현했다. 이 시스템에서 다시점 영상은 8대의 카메라에 의해 촬영되며, 이 촬영된 영상은 신호변환기에 의해 색상별로 한 개의 채널로 합성되어 초당 480 프레임 주파수로 빔 프로젝터에 의해 홀로그래픽 스크린에 투사된다. 빔 프로젝터의 영상은 띠형(Strip Type) 액정 셔터를 통해 홀로그래픽 스크린에 투사되게 되며, 이 띠형 액정 셔터는 홀로그래픽 스크린상에 투사된 영상을 볼 수 있게 시역을 형성한다. 각 카메라는 대응하는 띠형 액정 셔터들과 동기되어 움직이므로, 각 카메라의 영상은 대응하는 액정 셔터를 통해 투사하게 되어 시역에서는 다시점 3차원 영상의 시청이 가능해진다.

  • PDF

이미지 분위기 분류에 기반한 동영상 자동 생성 (Automatic Video Generation Based on Image Mood Classification)

  • 조동희;남용욱;이현창;김용혁
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 추계학술대회
    • /
    • pp.67-68
    • /
    • 2019
  • 머신러닝을 활용한 이미지 분류는 단순 사물을 넘어서 사람의 감성과 같은 추상적이고 주관적인 개념에도 적용되고 있다. 이 중에서도 합성곱 신경망을 통한 이미지의 감정 분류 연구가 더욱 활성화되고 있다. 그럼에도 다양한 멀티미디어들을 머신러닝 알고리즘으로 분석하고 이를 의미있는 결과로 재생성하기는 매우 복잡하고 까다롭다. 본 연구에서는 기존 연구를 개선시켜 음악 데이터를 다층퍼셉트론 모델을 통해 분류된 이미지와 결합한 동영상을 파이썬의 다양한 라이브러리를 통해 자동으로 생성하였다. 이를 통해 특정 분위기로 분류된 이미지들과 이에 어울리는 음악을 매칭시켜 유의미한 새로운 멀티미디어를 자동으로 생성할 수 있었다.

  • PDF

H.264/AVC 부호화기용 움직임 보상의 연구 (A Study on Motion Compensation for H.264/AVC Encoder)

  • 김원삼;손승일
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2007년도 추계종합학술대회
    • /
    • pp.215-218
    • /
    • 2007
  • 여러 동영상 부호화 방식에서 영상프레임을 분할해서 이전에 부호화된 프레임으로부터 움직임을 추정하여 현재의 블록을 예측하는 움직임 보상을 사용하고 있다. 움직임 보상에 사용되는 화소정밀도가 높을수록 보다 좋은 성능을 갖지만 연산량은 증가하게 된다. 본 논문에서는 1/4 화소 정밀도를 지원하는 H.264/AVC 부호화기에 적합한 움직임 보상기를 연구하였다. 전치 배열과 휘도 6-tap 필터 3개를 사용하여 높은 하드웨어 이용률을 갖게하였다. VHDL을 사용하여 Xilinx ISE툴을 사용하여 합성하고, 보드 수준에서 PCI인터페이스를 사용하여 검증하였다. 본 논문에서 제안하는 움직임 보상기는 실시간 처리를 요구하는 분야에 응용 가능할 것으로 예견된다.

  • PDF

시간에 따라 변화하는 CGH의 공간 재구현 (Spatial realization of a time-varying CGH)

  • 김상혁;정성락;조재철;최상삼;조규만;고성재
    • 한국광학회지
    • /
    • 제8권3호
    • /
    • pp.194-198
    • /
    • 1997
  • 본 연구는 움직이는 물체의 컴퓨터 합성 홀로그래피(CGH)의 동영상 디스프레이를 액정형 공간광변조기(OASLM)에 의하여 시도하였다. CGH는 계산하는 시간을 줄이기 위해서 horizontal parallex 방법을 사용하였고, 또한 계산하는데 시간이 오래 걸리는 삼각함수 계산과 자승근 계산부분을 미리 lookup table로 만들어 놓음으로써 계산속도를 향상시키고 저해상도 SLM에 맞춰 lookup table을 적용시키는 방법을 개발하였다. 그리고 이미 성공한 정지영상을 연속 디스프레이하여 동영상으로 표현하였고 스캐너를 이용하여 3개의 동영상을 분리하여 동시에 디스프레이하는 데 성공하였다.

  • PDF

이미지 스티칭의 지역 차분 픽셀 평가 방법 (Local Differential Pixel Assessment Method for Image Stitching)

  • 이성배;김규헌
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.298-301
    • /
    • 2019
  • 이미지 스티칭은 다수의 이미지를 합성하여 카메라의 좁은 시야각(Field of View) 문제를 해결하는 기술이다. 최근 동영상 기반 Panorama, Super Resolution, 360 VR (Virtual Reality) 등의 컨텐츠 사용이 증가함에 따라, 보다 빠르고 정확한 이미지 스티칭 기술의 필요성이 커지고 있다. 지금까지 필요 성능을 만족시키기 위해 많은 알고리즘이 제안되고 있지만, 정확성을 측정하는 객관적 평가 방법은 표준화되지 않고 있다. 최근에서야 PSNR (Peak Signal-to-Noise Ratio) 과 SSIM (Structural Similarity index method) 측정값을 제시하는 방법이 주를 이루고 있지만, 본 논문에서는 PSNR 과 SSIM 측정 방식의 문제점을 밝히고 지역 차분 픽셀 평가 방법을 제안한다. 기하적 유사성과 광도 측정 정보를 포괄하는 LDPM(Local Differential Pixel Mean) 평가 방식을 테스트 이미지를 통해 증명하고 SSIM 과 비교를 통해 해당 평가 방법의 이점을 밝힌다.

  • PDF

GAN 을 이용한 압축된 동영상 품질 향상 (GAN-based Quality Enhancement of Compressed Video)

  • 김용성;이유진;김범윤;전병우
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 추계학술대회
    • /
    • pp.191-192
    • /
    • 2022
  • 본 논문에서는 딥러닝의 주요 기법 중 하나인 GAN 을 활용하여 압축된 영상의 품질을 개선하는 방법을 제안한다. 제안하는 GAN 의 생성자는 U-Net 과 ResNet 을 기반으로 구성되었으며, 판별자는 합성곱층과 전연결층으로 구성하였다. 네트워크의 학습은 HEVC (High Efficiency Video Coding)의 테스트 모델인 HM16.25 를 사용하여 RA (Random Access) 구성하에 양자화 계수 37 로 압축된 영상을 입력으로 하여 수행되었다. 제안하는 네트워크의 성능 확인을 위해 학습 시와 동일한 조건으로 압축된 다른 영상을 입력으로 하여 실험하였다. 실험 결과 영상의 평균 PSNR 은 34.20dB 에서 34.24dB 로 0.04dB 의 품질 향상이 이루어진 것을 확인할 수 있었다.

  • PDF

웹 카메라의 특성 분석 및 고해상도 행성촬영 (SPECIFIC ANALYSIS OF WEB CAMERA AND HIGH RESOLUTION PLANETARY IMAGING)

  • 박영식;이동주;진호;한원용;박장현
    • Journal of Astronomy and Space Sciences
    • /
    • 제23권4호
    • /
    • pp.453-464
    • /
    • 2006
  • 일반적으로 웹 카메라는 PC간 화상통신을 위해 많이 쓰이고 있으나, 화소수도 적고 장시간 노출촬영도 불가능하기 때문에 천문용으로 사용하기에는 어려움이 있다. 하지만 장시간 노출이 필요 없는 달이나 행성 등을 촬영하기에는 부족함이 없기 때문에 아마추어 관측자들이 행성 촬영용으로 많이 이용하고 있다. 웹 카메라 중에 CCD를 사용한 Philips사의 ToUcam Pro II를 사용하여 행성촬영을 하였고, 촬영한 동영상은 상용 프로그램인 Registax를 이용하여 합성을 하였다. 또한 웹 카메라의 기본적인 특성을 알아보기 위해, CCD의 특성 분석에 활용하는 직선성, 이득 등의 특성을 살펴보았다. 행성 촬영할 때 기존에는 필름이나 디지털 카메라, CCD로 한 장씩 찍었지만, 웹 카메라로 촬영할 경우 동영상으로 촬영하여서 중은 이미지만을 골라서 합성하기 때문에, 훨씬 더 고해상도의 행성이미지 촬영이 가능하게 되었다. 행성관측 방법과 동영상 합성 방법 등에 대해 논의하기로 한다.

자유 시점 TV에서 시점 합성을 위한 시공간적 배경 정보 추정 기반 홀 채움 방식 (Hole-filling Algorithm Based on Extrapolating Spatial-Temporal Background Information for View Synthesis in Free Viewpoint Television)

  • 김범수;응웬 띠엔 닷;홍민철
    • 전기전자학회논문지
    • /
    • 제20권1호
    • /
    • pp.31-44
    • /
    • 2016
  • 본 논문에서는 자유 시점 텔레비전에서 시점 합성 영상 획득을 위해 시공간적 배경 정보 추정 기반 홀 채움 방식을 제안한다. 신뢰할 수 있는 시간적 배경 정보를 획득하기 위해 새로운 배경 코드북의 구성 및 갱신하는 과정을 수행한다. 더불어, 공간적인 국부 배경 정보 추정을 위해 홀 영역의 배경 및 전경 영역의 구별 및 갱신 과정을 수행한다. 추정된 시공간 배경 정보를 조합하여 홀 채움 과정을 수행하고, 잔여 홀 채움을 수행하기 위해 깊이 배경 정보를 이용한 우선순위 함수를 결정하여 표본 기반 인페인팅 기법을 적용한다. 실험 결과를 통해 제안 방식은 기존방식들과 비교하여 평균 0.3~0.6dB의 성능 향상이 있음을 확인하였으며, 동영상 특성 및 홀 형태에 관계없이 제안된 방식이 새로운 시점 영상을 효과적으로 합성할 수 있음을 확인할 수 있었다.

빅데이터와 딥페이크 기반의 헤어스타일 추천 시스템 구현 (Implementation of Hair Style Recommendation System Based on Big data and Deepfakes)

  • 김태국
    • 사물인터넷융복합논문지
    • /
    • 제9권3호
    • /
    • pp.13-19
    • /
    • 2023
  • 본 논문에서는 빅데이터와 딥페이크 기반의 헤어스타일 추천 시스템 구현에 관해 연구하였다. 제안한 헤어스타일 추천 시스템은 사용자의 사진(이미지)을 바탕으로 얼굴형을 인식한다. 얼굴형은 타원형, 둥근형, 장방형으로 구분하며, 얼굴형에 잘 어울리는 헤어스타일을 딥페이크를 통해 합성하여 동영상으로 제공한다. 헤어스타일은 빅데이터를 바탕으로 최신 트랜드(trend)와 얼굴형에 어울리는 스타일을 적용하여 추천한다. 이미지의 분할 맵과 Motion supervised Co-Part Segmentation 알고리즘으로 같은 카테고리(머리, 얼굴 등)를 가지는 이미지들 간 요소를 합성할 수 있다. 다음으로 헤어스타일이 합성된 이미지와 미리 지정해둔 동영상을 Motion Representations for Articulated Animation 알고리즘에 적용하여 동영상 애니메이션을 생성한다. 제안한 시스템은 가상 피팅 등 전반적인 미용산업에 활용될 수 있을 것으로 기대한다. 향후 연구에서는 거울에 사물인터넷 기능 등을 적용하여 헤어스타일등을 추천해주는 스마트 거울을 연구할 예정이다.

MPEG-4 AVC를 위한 고속 인터 예측기의 하드웨어 구현 (Hardware Implementation of a Fast Inter Prediction Engine for MPEG-4 AVC)

  • 임영훈;이대준;정용진
    • 한국통신학회논문지
    • /
    • 제30권3C호
    • /
    • pp.102-111
    • /
    • 2005
  • 본 논문에서는 MPEG-4 AVC 부호화기를 위한 고속 인터 예측기에 대한 하드웨어 구조를 제안한다. 동영상 압축기술인 MPEG-4 AVC 부호화기의 전체 구성 중에서 핵심 부분인 인터 예측기를 1/4화소 단위로 움직임 추정을 수행 할 수 있도록 하드웨어 구조를 설계하였으며 이를 위해 블록 조각화, 움직임 추정, 움직임 보정의 기본적인 구조를 구성하고 실시간 동영상 부호화를 할 수 있도록 인터 메모리와 1/4화소 단위 고속 블록 계산기 등을 이용하였다. 구현된 전체 모듈은 Altera Excalibur 디바이스와 Xilinx Virtex2 디바이스를 이용한 FPGA 구성을 통해 검증하고 삼성 STD130 0.18um CMOS Cell Library를 이용하여 합성 및 검증을 하였다. 이렇게 검증된 구조의 성능은 ASIC으로 구현할 경우 최대 동작 주파수가 약 62.5MHz이며 성능은 QCIF크기의 영상데이터를 기준으로 초당 약 88프레임의 인터예측을 수행할 수 있다. 본 성능은 하드웨어 기반의 MPEG-4 AVC 실시간 부호화기를 설계하기에 적합한 구조임을 보여준다.