• 제목/요약/키워드: Dynamic scene

검색결과 145건 처리시간 0.028초

비디오 파노라마 가상현실을 기반으로 하는 호서 사이버 패류 박물관의 연구 (A study on Web-based Video Panoramic Virtual Reality for Hose Cyber Shell Museum)

  • Hong, Sung-Soo;khan, Irfan;Kim, Chang-ki
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.1468-1471
    • /
    • 2012
  • It is always a dream to recreate the experience of a particular place, the Panorama Virtual Reality has been interpreted as a kind of technology to create virtual environments and the ability to maneuver angle for and select the path of view in a dynamic scene. In this paper we examined an efficient algorithm for Image registration and stitching of captured imaged from a video stream. Two approaches are studied in this paper. First, dynamic programming is used to spot the ideal key points, match these points to merge adjacent images together, later image blending is use for smooth color transitions. In second approach, FAST and SURF detection are used to find distinct features in the images and a nearest neighbor algorithm is used to match corresponding features, estimate homography with matched key points using RANSAC. The paper also covers the automatically choosing (recognizing, comparing) images to stitching method.

3차원 애니메이션을 위한 회화적 스트로크의 동적 관리 기법 (A Study on the Dynamic Painterly Stroke Generation for 3D Animation)

  • 이효근;류승택;윤경현
    • 한국멀티미디어학회논문지
    • /
    • 제8권4호
    • /
    • pp.554-568
    • /
    • 2005
  • 본 연구에서는 3차원 비사실적 애니메이션을 위한 프레임간 유사성 유지 기법을 제공한다. 비사실적 애니메이션 분야에서는 결과 영상이 매 프레임마다 임의적으로 변경되는 것을 방지하기 위하여 프레임간 유사성(frame-to-frame coherence)을 유지하는 것이 매우 중요하다. 본 연구에서는 이러한 유사성을 유지하기 위하여 3차원 파티클 시스템을 적용하였다. 각각의 파티클들은 결과 영상에서 하나의 브러쉬 스트로크를 나타낸다. 본 연구에서는 파타클들을 물체의 표면에 고정함으로써 물체가 움직이거나 회전할 때 프레임간 유사성을 유지한다. 물론 카메라가 Zoom in/out 될 때에도 프레임간 유사성은 유지된다. 하지만 물체 표면의 브러쉬 스트로크도 또한 동일하게 Zoom in/out 될 것이다. 이러한 결과로서 생성되는 브러쉬 스트로크들은 지나치게 커지거나 지나치게 작아지는 경우, 사람이 그린 듯한 브러쉬 스트로크라는 느낌을 주기 어렵다. 따라서 본 연구에서는 카메라의 Zoom in/out 시에 브러쉬 스트로크를 동적으로 관리하여 화면 공간상에서는 그 크기가 일정하게 유지되도록 함으로써 결과 영상을 자연스럽게 유지하면서 프레임간 유사성을 유지하도록 하였다.

  • PDF

만질 수 있는 비디오를 위한 햅틱 렌더링 기술 (Haptic Rendering Technology for Touchable Video)

  • 이환문;김기권;성미영
    • 한국멀티미디어학회논문지
    • /
    • 제13권5호
    • /
    • pp.691-701
    • /
    • 2010
  • 본 논문에서는 만질 수 있는 비디오를 위한 햅틱 렌더링 기술을 제안한다. 만질 수 있는 비디오 기술은 사용자로 하여금 햅틱 인터페이스를 이용하여 비디오 장면의 물체를 2D 또는 3D 객체 상태로 직접 조작하며 촉감을 느낄 수 있게 해주는 기술이다. 서버에서는 비디오와 햅틱 데이터, 3D 모델 객체의 정보를 전송한다. 클라이언트에서는 서버로부터 받은 비디오, 햅틱 데이터, 3D 모델을 렌더링 해준다. 또한 화면을 사각형의 작은 셀로 나누어 각각의 셀마다 촉감을 부여하는 방식을 사용한다. 촉감을 부여하기 위하여 각 셀에 고유한 느낌을 주는 경도(stiffness), 제동성(damping), 정적 마찰력(static friction), 동적 마찰력(dynamic friction) 값의 조합을 미리 정의해 놓았다. 본 기술을 이용하면 사용자는 화면을 직접 만지거나 화면 속의 물체를 3D 모델로 불러온 다음 이동, 크기 조절, 회전 등의 기능을 이용하여 사용자가 원하는 위치에서 촉감을 느끼면서 물체를 자세히 관찰할 수도 있다. 본 논문에서 제안하는 만질 수 있는 비디오를 위한 햅틱 렌더링 기술은 영화, 홈쇼핑 등의 비디오 콘텐츠에 대하여 시각적 효과, 청각적 효과와 더불어 촉각적 효과까지 제공하여 사용자 만족감을 극대화할 수 있다.

이차 행동 기반의 다이나믹 지글 본 애니메이션 (Secondary Action based Dynamic Jiggle-Bone Animation)

  • 박성준;안득용;오성석
    • 한국게임학회 논문지
    • /
    • 제10권1호
    • /
    • pp.127-134
    • /
    • 2010
  • 현대 게임 개발에 있어서 장신구와 같은 세밀한 오브젝트에 대한 이차 애니메이션 기술에 대해 많이 연구하고 적용하고 있는 추세이다. 3D 그래픽 도구에서는 이러한 오브젝트에 애니메이션 생성을 위해 지글본 디포머라는 기술을 응용하고 있지만 실시간적으로 변형하기 어렵고 그래픽 개발자들에게 많은 시간을 들여야 한다는 부담이 있다. 반면 물리 엔진을 사용하여 구현 할 수도 있지만 게임에서 한 장면 안에 여러 개의 오브젝트를 물리엔진을 이용하여 처리한다면 계산량이 많아져 효율적이지 못하다. 본 논문에서는 실시간 적으로 변형하기 쉬우며 물리엔진과 같은 비슷한 효과를 내기 위한 다이나믹 지글본 애니메이션 알고리즘을 제안한다. 제안한 알고리즘에 대한 성능 평가를 위해 본 의 개수에 따른 성능과 한 장면 안에 여러 개의 지글 본 애니메이션을 사용했을 경우에 대해 실험하였고 비교적 효율적인 결과를 도출하였다.

불확실한 장면의 효과적인 인식을 위한 베이지안 네트워크의 온톨로지 기반 제한 학습방법 (A Constrained Learning Method based on Ontology of Bayesian Networks for Effective Recognition of Uncertain Scenes)

  • 황금성;조성배
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제34권6호
    • /
    • pp.549-561
    • /
    • 2007
  • 영상을 분석하여 얻은 증거를 바탕으로 장면의 의미를 추론하고 해석하는 것을 시각 기반 장면 이해라고 하며, 최근 인과적인 판단 및 추론 과정을 모델링하기에 유리한 베이지안 네트워크(BN)를 이용한 확률적인 접근 방법이 활발히 연구되고 있다. 하지만 실제 환경은 변화가 많고 불확실하기 때문에 의미 있는 증거를 충분히 확보하기 어려울 뿐만 아니라 전문가에 의한 설계로 유지하기 어렵다. 본 논문에서는 증거 및 학습 데이타가 부족한 장면인식 문제에서 효율적인BN 구조로 계산 복잡도가 줄어들고 정확도는 향상될 수 있는 BN 학습방법을 제안한다. 이 방법은 추론 대상 환경의 도메인 지식을 온톨로지로 표현하고 이를 제한적으로 사용하여 효율적인 계층구조의 BN을 구성한다. 제안하는 방법의 평가를 위하여 9종류의 환경에서 90장의 영상을 수집하고 레이블링하여 실험하였다. 실험 결과, 제안하는 방법은 증거의 수가 적은 불확실한 환경에서도 좋은 성능을 내고 학습의 복잡도가 줄어듦을 확인할 수 있었다.

MPEG-4 동적서비스 프레임워크 설계 및 구현 (Design and Implementation of An MPEG-4 Dynamic Service Framework)

  • 이광의
    • 한국멀티미디어학회논문지
    • /
    • 제5권5호
    • /
    • pp.488-493
    • /
    • 2002
  • MPEG-4동화상은 계층적인 형태로 구조화되는 여러 개의 미디어 객체로 구성되며, 각각의 미디어 객체는 기본 스트림의 형태로 클라이언트에게 제공된다. 클라이언트 재생기는 장면 그래프라는 메타정보를 이용하여 기본 스트림들을 구성함으로서 동화상을 상영한다. BIFS 와 OD 기본 스트림이 메타정보를 전달하는데 이용된다. 우리는 동적으로 생성된 BIFS 와 OD 스트림을 사용함으로서 기존의 파일서비스와는 차별화 된 서비스를 제공할 수 있다. 예를 들면, 이미 제작된 동화상의 아래 부분에 날씨나 주식정보를 삽입할 수 있다. 본 논문에서는 동적 서비스 프레임워크와 동적서버를 제안한다. 동적서비스 프레임 워크는 외부의 데 이터베이스로부터 제공되는 정보에 기반 하여 BIFS와 OD 스트림 을 동적으로 생성하기 위 한 객체지향 프레임 워크이며, 동적서버는 서버를 관리하기 위한 그래픽 사용자 인터페이스와 동적서비스를 등록하는 인터페이스를 제공한다 이 프레임워크하에서 동적서비스는 파일서비스와 동일한 인터페이스를 가지므로 클라이언트와 다른 서비스에게 기존의 파일서비스와 동일하게 보여진다.

  • PDF

연속해석 데이터의 상호운용성을 지원하는 CAE 미들웨어와 가시화 시스템의 개발 (Development of a CAE Middleware and a Visualization System for Supporting Interoperability of Continuous CAE Analysis Data)

  • 송인호;양정삼;조현제;최상수
    • 한국CDE학회논문집
    • /
    • 제15권2호
    • /
    • pp.85-93
    • /
    • 2010
  • This paper proposes a CAE data translation and visualization technique that can verify time-varying continuous analysis simulation in a virtual reality (VR) environment. In previous research, the use of CAE analysis data has been problematic because of the lack of any interactive simulation controls for visualizing continuous simulation data. Moreover, the research on post-processing methods for real-time verification of CAE analysis data has not been sufficient. We therefore propose a scene graph based visualization method and a post-processing method for supporting interoperability of continuous CAE analysis data. These methods can continuously visualize static analysis data independently of any timeline; it can also continuously visualize dynamic analysis data that varies in relation to the timeline. The visualization system for continuous simulation data, which includes a CAE middleware that interfaces with various formats of CAE analysis data as well as functions for visualizing continuous simulation data and operational functions, enables users to verify simulation results with more realistic scenes. We also use the system to do a performance evaluation with regard to the visualization of continuous simulation data.

Motion-Based Background Subtraction without Geometric Computation in Dynamic Scenes

  • Kawamoto, Kazuhiko;Imiya, Atsushi;Hirota, Kaoru
    • 한국지능시스템학회:학술대회논문집
    • /
    • 한국퍼지및지능시스템학회 2003년도 ISIS 2003
    • /
    • pp.559-562
    • /
    • 2003
  • A motion-based background subtraction method without geometric computation is proposed, allowing that the camera is moving parallel to the ground plane with uniform velocity. The proposed method subtracts the background region from a given image by evaluating the difference between calculated and model Hows. This approach is insensitive to small errors of calculated optical flows. Furthermore, in order to tackle the significant errors, a strategy for incorporating a set of optical flows calculated over different frame intervals is presented. An experiment with two real image sequences, in which a static box or a moving toy car appears, to evaluate the performance in terms of accuracy under varying thresholds using a receiver operating characteristic (ROC) curve. The ROC curves show, in the best case, the figure-ground segmentation is done at 17.8 % in false positive fraction (FPF) and 71.3% in true positive fraction (TPF) for the static-object scene and also at 14.8% in FPF and 72.4% In TPF for the moving-object scene, regardless if the calculated optical flows contain significant errors of calculation.

  • PDF

가상현실 기반에서 차량 운전자 거동의 가시화 (Motion Visualization of a Vehicle Driver Based on Virtual Reality)

  • 정윤석;손권;최경현
    • 한국자동차공학회논문집
    • /
    • 제11권5호
    • /
    • pp.201-209
    • /
    • 2003
  • Virtual human models are widely used to save time and expense in vehicle safety studies. A human model is an essential tool to visualize and simulate a vehicle driver in virtual environments. This research is focused on creation and application of a human model fer virtual reality. The Korean anthropometric data published are selected to determine basic human model dimensions. These data are applied to GEBOD, a human body data generation program, which computes the body segment geometry, mass properties, joints locations and mechanical properties. The human model was constituted using MADYMO based on data from GEBOD. Frontal crash and bump passing test were simulated and the driver's motion data calculated were transmitted into the virtual environment. The human model was organized into scene graphs and its motion was visualized by virtual reality techniques including OpenGL Performer. The human model can be controlled by an arm master to test driver's behavior in the virtual environment.

무인 자동차의 2차원 레이저 거리 센서를 이용한 도시 환경에서의 빠른 주변 환경 인식 방법 (Fast Scene Understanding in Urban Environments for an Autonomous Vehicle equipped with 2D Laser Scanners)

  • 안승욱;최윤근;정명진
    • 로봇학회논문지
    • /
    • 제7권2호
    • /
    • pp.92-100
    • /
    • 2012
  • A map of complex environment can be generated using a robot carrying sensors. However, representation of environments directly using the integration of sensor data tells only spatial existence. In order to execute high-level applications, robots need semantic knowledge of the environments. This research investigates the design of a system for recognizing objects in 3D point clouds of urban environments. The proposed system is decomposed into five steps: sequential LIDAR scan, point classification, ground detection and elimination, segmentation, and object classification. This method could classify the various objects in urban environment, such as cars, trees, buildings, posts, etc. The simple methods minimizing time-consuming process are developed to guarantee real-time performance and to perform data classification on-the-fly as data is being acquired. To evaluate performance of the proposed methods, computation time and recognition rate are analyzed. Experimental results demonstrate that the proposed algorithm has efficiency in fast understanding the semantic knowledge of a dynamic urban environment.