• 제목/요약/키워드: Scene Flow

검색결과 63건 처리시간 0.025초

Recovery of 3-D Motion from Time-Varying Image Flows

  • Wohn, Kwang-Yun;Jung, Soon-Ki
    • Journal of Electrical Engineering and information Science
    • /
    • 제1권2호
    • /
    • pp.77-86
    • /
    • 1996
  • In this paper we deal with the problem of recovering 3-D motion and structure from a time-varying 2-D velocity vector field. A great deal has been done on this topic, most of which has concentrated on finding necessary and sufficient conditions for there to be a unique 3-D solution corresponding to a given 2-D motion. While previous work provides useful theoretical insight, in most situations the known algorithms have turned out to be too sensitive to be of much practical use. It appears that any robust algorithm must improve the 3-D solutions over time. As a step toward such algorithm, we present a method for recovering 3-D motion and structure from a given time-varying 2-D velocity vector field. The surface of the object in the scene is assumed to be locally planar. It is also assumed that 3-D velocity vectors are piecewise constant over three consecutive frames (or two snapshots of flow field). Our formulation relates 3-D motion and object geometry with the optical flow vector as well as its spatial and temporal derivatives. The linearization parameters, or equivalently, the first-order flow approximation (in space and time) is sufficient to recover rigid body motion and local surface structure from the local instantaneous flow field. We also demonstrate, through a sensitivity analysis carried out for synthetic and natural motions in space, that 3-D motion can be recovered reliably.

  • PDF

3D 게임영상 작성법에 관한 연구 (Research about a game image 3D versification)

  • 이동열
    • 게임&엔터테인먼트 논문지
    • /
    • 제1권1호
    • /
    • pp.31-38
    • /
    • 2005
  • 게임개발에 사용되어지는 여러 가지 공정 중 게임제작의 정확한 흐름. 그리고 제작에 대한 이해가 보다 정확한 게임을 제작하리라 여긴다. 게임의 원인제공이 되는 영상제작에 있어 정확한 공정이해와 3D게임영상제작이해에 중심을 둔다. 실제 게임제품에 있어서는 게임을 기동했을 때에 표시되는 오프닝 무비, 이벤트 때에 삽입되는 Cut Scene등의 영상이 이 방법으로 생성되고 있다. 게임과는 다르지만 극장 영화에 있어서 특수효과 영상에서 3D게임영상이 이용되는 것이 게임 제작 시 고려되어야 할 그래픽이다. 게임플레이어가 보다 정확한 원인제공으로 그 게임에 몰입 할 수 있는 원인을 제공하리라 여겨진다.

  • PDF

프로그래밍 방식의 객체 기반 영상 콘텐츠 제작 기술 동향 (Trends in Programmable Object-Based Content Production Technologies)

  • 이재영;김태원;추현곤;이한규;석왕헌;강정원;허남호;김흥묵
    • 전자통신동향분석
    • /
    • 제37권4호
    • /
    • pp.70-80
    • /
    • 2022
  • With the rapid growth in media service platforms providing broadcast programs or content services, content production has become more important and competitive. As a strategy to meet the diverse needs of global consumers for a variety of content and to retain them as long-term repeat customers, global over-the-top service providers are increasing not only the number of content productions but also their production efficiency. Moreover, a considerable amount of scene composition in the flow of content production work appears to be combined with rendering technology from a game engine and converted to object-based computer programming, thereby enhancing the creativity, diversity, quality, and efficiency of content production. This study examines the latest technology trends in content production such as virtual studio technology, which has emerged as the center of content production, the use cases in various fields of artificial intelligence, and the metadata standards for content search or scene composition. This study also examines the possibility of using object-based computer programming as one of the future candidate technologies for content production.

단안 비디오로부터의 5차원 라이트필드 비디오 합성 (5D Light Field Synthesis from a Monocular Video)

  • 배규호;안드레 이반;박인규
    • 방송공학회논문지
    • /
    • 제24권5호
    • /
    • pp.755-764
    • /
    • 2019
  • 현재 사용 가능한 상용 라이트필드 카메라는 정지 영상만을 취득하거나 가격이 매우 높은 단점으로 인하여 5차원 라이트필드 비디오 취득에 어려움이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 단안 비디오로부터 라이트필드 비디오를 합성하기 위한 딥러닝 기반 기법을 제안한다. 라이트필드 비디오 학습 데이터를 취득하기 어려운 문제를 해결하기 위하여 UnrealCV를 활용하여 3차원 그래픽 장면의 사실적 렌더링에 의한 합성 라이트필드 데이터를 취득하고 이를 학습에 사용한다. 제안하는 딥러닝 프레임워크는 입력 단안 비디오에서 $9{\times}9$의 각 SAI(sub-aperture image)를 갖는 라이트필드 비디오를 합성한다. 제안하는 네트워크는 밝기 영상으로 변환된 입력 영상으로부터 appearance flow를 추정하는 네트워크, appearance flow로부터 얻어진 인접한 라이트필드 비디오 프레임간의 optical flow를 추정하는 네트워크로 구성되어 있다.

시간과 빛의 변화에 따른 자연색채 감성의 변화연구 (The Changes of Color Emotions According to the Time flow and Natural Environmental Color Changes)

  • 이정안;이연주
    • 한국실내디자인학회:학술대회논문집
    • /
    • 한국실내디자인학회 2006년도 추계학술발표대회 논문집
    • /
    • pp.121-124
    • /
    • 2006
  • This study was done with a goal to observe changes of color emotions according to time flow and light changes as well as to study its moaning of color experience of natural scene to modern city dwellers with artificial surroundings. Individuals develop various feelings after seeing a color, but there is sometimes a common feeling raised among these various feelings. This study aims to investigate the influence of natural colors of surroundings on the emotions of human beings. First of all, we tried to discover how feelings change after a person is reminded of a color through an experience (recognition) of a natural color. Second, differences in feelings resulting from color perception are analyzed after time passes (sunrise, daytime, and sunset) and the colors of natural surroundings change accordingly. Survey was done in the period of $Jul.8^{th}$ to $10^{th}$, 2005 with 100 people (55 male and 45 female) in various professions and various ages between twenties to forties as respondent.

  • PDF

자율주행을 위한 동적 객체 인식 방법에 관한 연구 (A Study on the Motion Object Detection Method for Autonomous Driving)

  • 박승준;박상배;김정하
    • 한국산업융합학회 논문집
    • /
    • 제24권5호
    • /
    • pp.547-553
    • /
    • 2021
  • Dynamic object recognition is an important task for autonomous vehicles. Since dynamic objects exhibit a higher collision risk than static objects, our own trajectories should be planned to match the future state of moving elements in the scene. Time information such as optical flow can be used to recognize movement. Existing optical flow calculations are based only on camera sensors and are prone to misunderstanding in low light conditions. In this regard, to improve recognition performance in low-light environments, we applied a normalization filter and a correction function for Gamma Value to the input images. The low light quality improvement algorithm can be applied to confirm the more accurate detection of Object's Bounding Box for the vehicle. It was confirmed that there is an important in object recognition through image prepocessing and deep learning using YOLO.

시점변화에 적응적인 보행자 유동 속도 측정 (A Method of Pedestrian Flow Speed Estimation Adaptive to Viewpoint Changes)

  • 이광국;윤자영;김재준;김회율
    • 방송공학회논문지
    • /
    • 제14권4호
    • /
    • pp.409-418
    • /
    • 2009
  • 본 논문은 일반적인 영상 감시 비디오의 입력으로부터 영상 내 보행자들의 유동 속도를 측정하는 방법을 제안한다. 제안한 방법은 연속된 프레임 간에 얻어진 움직임 벡터로부터 실세계(real world)에서 보행자들의 이동량의 크기를 예측하고, 이를 통해 영상 내 보행자들의 평균 이동 속도를 측정한다. 제안한 방법에서는 이를 위해 영상 내 화소 단위를 실세계의 물리 단위(미터)로 변환하기 위한 변환 인자를 정의하였다. 또한, 정확한 속도 추정을 위해 카메라 투영 과정에서 잃어버리게 되는 실세계 움직임의 높이 정보를 시뮬레이션 실험을 통해 통계적으로 추정하였다. 제안한 방법은 카메라 매개변수를 속도 추정 과정에서 명시적으로 분리하여 표현하기 때문에 기존의 유동 속도 추정 방법과 달리 영상의 환경 변화에 적응적으로 대응할 수 있는 장점이 있다. 제안한 방법의 검증을 위하여 시뮬레이션 영상과 실제 영상에 대하여 실험이 이루어졌다. 실험 결과 제안한 방법은 시뮬레이션 영상에서 약 0.08m/s의 오차로 속도를 추정할 수 있었으며, 실제 영상에 대해서도 기대할 수 있는 결과를 보여주었다.

360 VR 영상에서 효율적인 자막 위치 선정에 관한 연구 (A Study on Efficient Positioning of Subtitles in 360 VR)

  • 김형균
    • 디지털융복합연구
    • /
    • 제18권6호
    • /
    • pp.93-98
    • /
    • 2020
  • 본 논문에서는 360 VR에서 사용자 시점의 변화에 따라 자막이 팔로잉되는 기법을 제안하였다. Unity의 Scene에 Sphere 객체를 생성하고 Sphere 객체 표면에 360도 영상을 삽입한다. 이때, 시점을 내부로 변환하기 위해서 ReverseNormals 스크립트를 사용한다. 카메라 시점을 수정하기 위해 SightOrbitproved 스크립트를 사용한다. 이 스크립트를 이용해 시점에 따라 자막이 이동할 수 있는 환경을 설정한다. 다음으로 사용자가 원하는 3D Text(자막)를 Main Camera의 하위계층에 추가하고 360 VR 객체를 Build한다. 본 연구를 통해 구현된 3D Text 자막을 사용자 시점의 변화에 따라 비교하였다. 그 결과 시점의 변화가 진행되면서 일반 자막은 사용자의 시점에 따라 시선 밖으로 흘러가고 있으나, 3D Text 자막은 사용자의 시점에 따라 움직이면서 사용자가 항상 자막을 볼 수 있도록 구현되는 것을 확인할 수 있었다.

실감 서비스 제공을 위한 융합 미디어 미들웨어 (FMM: Fusion media middleware for actual feeling service)

  • 이지혜;윤용익
    • 한국멀티미디어학회논문지
    • /
    • 제13권2호
    • /
    • pp.308-315
    • /
    • 2010
  • Web2.0 시대가 도래함에 따라 웹 상에는 사용자에 의해 제작된 미디어간의 상호교환이 활발히 이루어지고 있다. 뿐만 아니라 콘텐츠 공유 사이트의 비약적인 성장을 바탕으로 미디어 콘텐츠 공유의 장이 활성화되었고, 이러한 환경 속에 비전문가에 의해 제작된 콘텐츠의 수가 증가하였다. 비전문가에 의해 제작된 콘텐츠는 촬영된 그대로의 영상만을 담고 있는 단순미디어에 그치기 때문에 단순미디어에 효과와 액션과 같은 실감을 부여하기 위한 방안으로 융합 미디어 미들웨어를 제안하며 이를 통해 제작자와 사용자의 만족감을 증대시킬 수 있으며, 영상은 한층 더 인상적인 콘텐츠로 발전할 수 있다. 실감 서비스를 제공하기 위한 융합 미디어 미들웨어는 MPEG-7을 기반으로 입력 받은 영상을 씬(scene) 단위로 분류하며, 세분화된 영상 사이에 이미지, 텍스트, 사운드 등과 같은 효과를 삽입함으로써 기존의 단순미디어를 실감효과가 부여한다. 입력영상과 실감효과를 연계시키기 위하여 MPEG-21에서 제공하는 BSD 코드를 이용하며 이를 통해 미디어간의 동기화(intra synchronization)를 제어한다. 본 논문에서 제안한 융합 미디어 미들웨어를 통하여 비전문가에 의한 콘텐츠는 다중미디어로서의 가치를 지니게 되며, 새로운 유통의 흐름을 창출할 수 있는 효과를 얻을 수 있다.

효율적인 3D 게임 및 애니메이션 콘텐츠 제작을 위한 직관적인 저작 기술 개발 (Development of Intuitive Author for 3D Game/Animation Contents)

  • 지수미;이정중;김성국;우경덕;백성욱
    • 한국멀티미디어학회논문지
    • /
    • 제13권5호
    • /
    • pp.780-791
    • /
    • 2010
  • 본 논문은 전문성이 없는 일반사용자들을 위하여 3D 콘텐츠를 직관적으로 제작할 수 있는 콘텐츠 저작 기술에 관한 것이다. 본 연구에서 개발한 저작 기술을 통하여 사용자 편의성을 고려하여 보다 쉬운 콘텐츠 저작환경을 제공받으며, 콘텐츠의 전체적인 구성을 한눈에 파악할 수 있어 용이한 제작과 효율적인 관리가 가능하므로 3D 콘텐츠 제작 경험이 없는 일반사용자도 원하는 콘텐츠를 손쉽게 만들 수 있다. 또한, 콘텐츠 제작 과정에서 흐름도 기반 장면구성방법으로 상호작용에 의한 장면의 논리적 흐름을 직관적으로 파악 할 수 있고, 직관적인 인터페이스의 장면저작도구로 기존 콘텐츠 자원을 활용하여 배치하고 기능을 설정함으로써 장면을 손쉽게 구성할 수 있다. 연구의 활용성 검증을 위해 서로 다른 유형의 4종의 콘텐츠를 본 기술을 활용하여 제작하였고, 저작도구로 제작된 콘텐츠의 기능적 요소를 분석하여 저작 기술의 유용성을 검증하였다.