• 제목/요약/키워드: 3D video

검색결과 1,152건 처리시간 0.025초

GPS를 이용한 3D 영상 구현 시뮬레이션 시스템 (3D Video Simulation System Using GPS)

  • 김한길;주상웅;김훈희;정회경
    • 한국정보통신학회논문지
    • /
    • 제18권4호
    • /
    • pp.855-860
    • /
    • 2014
  • 현재 항공기, 자동차 교육훈련용 시뮬레이터는 지상에 설치된 시뮬레이터에 가상의 상황을 구현하여 교육생에게 다양한 교육훈련 내용을 제공하고 교관은 다른 공간에서 교육훈련에 대한 내용을 모니터링하고 교육훈련에 필요한 내용은 바로 지시하여 교육훈련의 효과를 극대화하고 있다. 하지만 교육생이 실제 항공기나 자동차를 탑승하여 훈련을 진행 할 경우 관제센터의 교관은 항공기나, 자동차에 대한 내용을 관제센터에서 모니터링 할 수 없고 교육 종료 후 교육훈련 내용에 대한 평가가 쉽지 않아 교육생에게 양질의 교육이 어렵다. 본 논문에서는 항공기, 자동차에 GPS 정보와 항공기 또는 자동차의 각종 정보를 실시간으로 수집하여 3D 영상 시뮬레이션을 구현하며 화면에 현재 항공기 또는 자동차의 영상을 3차원으로 구현하여 관제센터에서 교육훈련 상황을 실시간으로 모니터링 및 교육훈련에 활용하고 3D 영상 파일을 저장하여 교육훈련 종료 후 교육생과 교관이 교육훈련 내용에 대하여 평가와 분석을 할 수 있는 시뮬레이션 시스템을 개발하고자 한다.

GPS를 이용한 3D 영상 구현 시뮬레이션 시스템 (3D video simulation system using GPS)

  • 주상웅;강병준;심규철;김경환;정회경
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2012년도 추계학술대회
    • /
    • pp.891-893
    • /
    • 2012
  • 현재 항공기, 자동차 훈련용 시뮬레이터는 지상에 설치된 시뮬레이터에 가상의 상황을 구현하여 교육생에게 다양한 교육훈련 내용을 제공하고 교관은 다른 공간에서 교육훈련에 대한 내용을 모니터링하고 교육훈련에 필요한 내용은 바로 지시하여 교육훈련의 효과를 극대화하고 있다. 하지만 교육생이 실제 항공기나 자동차를 탑승하여 훈련을 진행 할 경우 지상의 교관은 항공기나, 자동차에 대한 내용을 지상에서 모니터링 할 수 없고 교육 종료 후 교육훈련 내용에 대한 평가가 쉽지 않아 교육생에게 양질의 교육이 어렵다. 본 논문에서는 항공기, 자동차에 GPS정보와 항공기 또는 자동차의 각종 정보를 실시간으로 수집하여 3D 영상 시뮬레이션을 구현하며 화면에 현재 항공기 또는 자동차의 영상을 3차원으로 구현하여 관제센터에서 교육훈련 상황을 실시간으로 모니터링 및 교육훈련에 활용하고 3D 영상 파일을 저장하여 교육훈련 종료 후 교육생과 교관이 교육훈련 내용에 대하여 평가와 분석을 할 수 있는 시뮬레이션 소프트웨어를 개발하고자 한다.

  • PDF

정보은닉을 이용한 동영상 데이터의 전송 오류 보정 (Error Resilient Scheme in Video Data Transmission using Information Hiding)

  • 배창석;최윤식
    • 정보처리학회논문지B
    • /
    • 제10B권2호
    • /
    • pp.189-196
    • /
    • 2003
  • 본 논문에서는 정보은닉을 이용하여 동영상 데이터의 전송오류를 보정하는 방법을 제안하고 있다. 수신단에서 전송오류가 발생한 위치를 구하기 위해 송신단에서는 동영상 데이터의 부호화 과정 동안 마크로 블록 별로 한 비트씩의 데이터를 은닉하여 전송한다. 수신단에서는 복호화 과정 동안 은닉된 정보를 검출하며, 이 정보와 원래 데이터와의 비교에 의해 오류가 발생된 위치를 구하고 이를 보정함으로써 복원된 영상의 화질을 개선하도록 한다. 또한, 은닉된 정보는 동영상 데이터에 대한 저작권 정보로도 활용될 수 있다. 각각 150 프레임씩으로 구성되는 3개의 QCIF 크기의 동영상 데이터에 대한 실험 결과 은닉된 정보가 부호화된 스트림에 미치는 화질의 저하는 미세하며, 수신단에서의 오류를 교정한 결과 잡음이 많은 채널에서는 복원된 영상의 화질을 5dB 가까이 개선할 수 있음을 확인하였다. 또한, 영상의 복원 과정에서 동영상에 대한 저작권 정보도 효과적으로 구할 수 있었다.

영상의 색온도와 향의 감성적 일치가 영상실감 향상에 미치는 효과 (The effects of emotional matching between video color-temperature and scent on reality improvement)

  • 이국희;이형철;안충현;기명석;김신우
    • 한국HCI학회논문지
    • /
    • 제10권1호
    • /
    • pp.29-41
    • /
    • 2015
  • 3D 디스플레이, 진동, 서라운드 음향 등 다양한 감각자극을 활용한 영상실감 기술이 상용화되었으나, 후각을 사용한 영상의 실감향상에 대해서는 아직 뚜렷한 진전이 없다. 후각은 인간의 정서와 강하게 연합되어 있기 때문에, 이를 잘 활용한다면 높은 수준의 실감향상이 가능할 것으로 기대할 수 있다. 본 연구는 영상에 냄새를 암시하는 뚜렷한 대상(커피, 꽃 등)이 존재하지 않을 때, 영상의 색온도와 관련이 높은 향의 제시가 영상의 실감향상에 미치는 효과를 검증하였다. 이를 위해 먼저 48가지 향을 수집하여 1,500K (따뜻한) ~ 15,000K (차가운)의 색온도 척도를 통해 향과 색온도의 매칭을 실시하여, 따뜻한 혹은 차가운 색온도와 뚜렷한 매칭을 보인 향 8개 (따뜻한 향 4개, 차가운 향 4개)를 선정하였다 (실험 1). 이를 토대로 이미지와 영상에 따뜻한 (3,000K), 중립적인 (6,500K) 혹은 차가운 (14,000K) 색온도를 적용한 후, 따뜻한 혹은 차가운 향을 제시하여 향과 색온도의 일치도 (일치, 불일치, 중립)에 따라 실감이 얼마나 향상되는지 참가자들에게 7점 척도로 평정하게 하였다 (실험 2-3). 그 결과 향과 색온도가 일치할 때 참가자들은 불일치하거나 중립적일 때 보다 이미지와 영상의 실감을 더 높게 평가하였다. 본 연구는 영상에 후각 정보를 가진 구체적 대상이 없을 때에도 색온도 감성과 일치하는 향을 제공함으로써 영상실감 향상이 가능하다는 것을 보여준다는 점에서 중요한 실용적 가치가 있다.

가상현실을 이용한 영상산업 활용에 관한 연구 (A Study on the Utilization of Video Industry Using Virtual Reality)

  • 백승만
    • 디자인학연구
    • /
    • 제15권1호
    • /
    • pp.163-170
    • /
    • 2002
  • 가상현실 기술은 인간이 현실세계에서 경험하는 것과 유사한 상호작용 행위를 가상의 공간을 통하여 체험할 수 있게 하는 기술이다. 가상현실 기술을 이용하여 3차인 가상공간에 참여한 사용자는 시간적 공간적 제약에 구애받지 않고 원하는 공간에서 다양한 경험을 할 수 있어서 영상산업, 오락, 시뮬레이션, 의료, 건축 및 설계분야 등 수많은 응용분야에서 그 기술이 활용되고 있다. 그 중 영상분야는 고 부가가치 산업으로 가장 각광을 받고 있는 분야라 할 수 있다. 이와 관련하여 본고에서는 영상산업의 영화, 방송, 광고, 인터넷 등 4가지로 분류하여 각각의 특징 및 적용사례와 발전 가능성을 관하여 살펴보고자 한다. 영상산업에서 가상현실 기술을 이용한 산업을 보면, 영화분야에서는 가상현실 기술을 이용하여 특수효과에 제작되고 있으며, 방송분야에서는 가상 스튜디오와 가상 캐릭터 도입으로 시청자에게 다양한 그래픽 가상세계를 제공하고 있다. 광고분야에서는 방송 생중계시 가상공간에 실시간으로 3차원적 광고 삽입하여 시청자에게 큰 시너지 효과를 줄 수가 있다. 또한, 가상현실 언어인 VRML의 등장으로 웹 상에서도 가상 박물관, 가상 모델하우스, 가상 홈쇼핑, 오락 등 3타원 가상현실 구현이 가능하게 되어 보다 다양한 엔터테인먼트 역할을 수행하고 있다. 이와 같이 본 고는 가상현실 기술을 이용하여 영상산업에 있어 활용방안을 모색하고자 하였다.

  • PDF

SVTE를 기반으로 한 가상 공간에서의 비디오 컨퍼런스 설계에 관한 연구 (A study for video-conference architecture in Virtual Reality based on SVTE)

  • 김태훈;김남효;김선우;최연성
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2005년도 추계종합학술대회
    • /
    • pp.219-222
    • /
    • 2005
  • 비디오 컨퍼런스는 시간적, 공간적으로 분산된 그룹의 의사소통 및 공동작업에 매우 유용하게 활용되고 있다. 이는 이동에 소요되는 시간 및 경제성에서 특히 강점을 가진다. 본 논문에서는 SVTE(Shared Virtual Table Environment)를 기반으로 하여, 3D 비디오와 Virtual Reality 기술을 결합한 차세데 비디오 컨퍼런스 시스템을 제안한다. 또한 서로 공유된 공간내에서, 평면상의 2D 화면보다 더욱 사실감 있는 3D 영상을 제공하는 비디오 컨퍼런스 시스템의 구조를 보이고, 제안된 시스템에서 고려되어야 할 영상처리 기법을 설명한다.

  • PDF

MPEG-4에서 H.264로 트랜스코딩 (MPEG-4 to H.264 Transcoding)

  • 이성선;이영렬
    • 대한전자공학회논문지SP
    • /
    • 제41권5호
    • /
    • pp.275-282
    • /
    • 2004
  • 본 논문에서는 30 Hz 프레임 율의 MPEG-4 simple profile 비디오 비트스트림을 15 Hz 프레임 율을 갖는 H.264 baseline profile 비디오 비트스트림으로 변환하는 트랜스코딩을 제안한다. MPEG긱의 블록 모드(block mode)와 움직임 벡터(Motion Vector) 정보를 H.264에서 이용 가능하도록 블록 모드 변환을 수행하고, MPEG-4의 움직임 벡터 보간을 이용하여 H.264에서 움직임 예측(Motion Estimation) 없이 정수 화소 단위로 움직임 벡터를 찾는 3가지 움직임 벡터 보간 (Motion Vector Interpolation) 방법을 실험한다. 이와 같은 방법을 이용해서 움직임 예측 시 소요되는 계산량을 줄이고 낮은 대역폭에서 심각한 화질 열화가 없는 트랜스코더를 제안한다. 실험 결과 제안된 방법은 직렬 화소영역 트랜스코딩에 비해 신호 대 잡음비(PSNR: peak signal to noise ratio)는 실험 영상에 따라 높은 비트율에서는 0.2dB에서 낮은 비트율에서 0.9dB의 손실이 있으나 전체 수행 시간은 3.2배에서 4배 빨라진다.

화자의 긍정·부정 의도를 전달하는 실용적 텔레프레즌스 로봇 시스템의 개발 (Development of a Cost-Effective Tele-Robot System Delivering Speaker's Affirmative and Negative Intentions)

  • 진용규;유수정;조혜경
    • 로봇학회논문지
    • /
    • 제10권3호
    • /
    • pp.171-177
    • /
    • 2015
  • A telerobot offers a more engaging and enjoyable interaction with people at a distance by communicating via audio, video, expressive gestures, body pose and proxemics. To provide its potential benefits at a reasonable cost, this paper presents a telepresence robot system for video communication which can deliver speaker's head motion through its display stanchion. Head gestures such as nodding and head-shaking can give crucial information during conversation. We also can assume a speaker's eye-gaze, which is known as one of the key non-verbal signals for interaction, from his/her head pose. In order to develop an efficient head tracking method, a 3D cylinder-like head model is employed and the Harris corner detector is combined with the Lucas-Kanade optical flow that is known to be suitable for extracting 3D motion information of the model. Especially, a skin color-based face detection algorithm is proposed to achieve robust performance upon variant directions while maintaining reasonable computational cost. The performance of the proposed head tracking algorithm is verified through the experiments using BU's standard data sets. A design of robot platform is also described as well as the design of supporting systems such as video transmission and robot control interfaces.

3D 비디오 MPEG 표준화 동향 (Standardization Trends of 3D Video Coding in MPEG)

  • 엄기문;방건;허남호;김진웅
    • 전자통신동향분석
    • /
    • 제24권3호
    • /
    • pp.61-68
    • /
    • 2009
  • UHDTV와 함께 HDTV 이후의 차세대 방송기술로서 전세계적으로 연구되고 있는 3DTV 방송 기술은 시청자에게 보다 사실적 이고 현장감 있는 3D 비디오 콘텐츠를 제공한다. 최근 미국 헐리우드를 중심으로 활성화되고 있는 3D 입체 영화 시장 성장, 다수의 디스플레이 업체들에 의한 3D 지원 디스플레이 발표, 휴대단말에서의 3D 데이터 및 비디오 서비스, 가정에서의 3D 비디오 서비스를 위한 3D@Home 표준화 작업, 3D4YOU를 중심으로 한 3D 비디오 콘텐츠의 생성기술과 배포 포맷에 관한 연구, 다시 점 3DTV 서비스 등을 위한 MPEG에서의 3DV 표준화 등 관련 기술 개발 및 표준화가 이뤄지고 있다. 본 고에서는 MPEG 3DV 그룹에서 진행중인 3DV부호화 기술 표준화 진행 현황과 기고 주요 기술에 대해 설명하고, 향후 3D 비디오 표준화 진행 전망에 대해 다루기로 한다.

다중 TMS320C31 DSP를 사용한 3-D 비젼센서 Implementation (A 3-D Vision Sensor Implementation on Multiple DSPs TMS320C31)

  • V.옥센핸들러;A.벤스하이르;P.미셰;이상국
    • 센서학회지
    • /
    • 제7권2호
    • /
    • pp.124-130
    • /
    • 1998
  • 독립적인 로보트나 자동차 제어 응용을 위하여 고속 3-D 비젼시스템들은 매우 중요하다. 이 논문은 다음과 같은 세가지 과정으로 구성되는 stereo vision process 개발에 대하여 논술한다 : 왼쪽과 오른쪽 이미지의 edges 추출, matching coresponding edges와 3-D map의 계산. 이 process는 VME 150/40 Imaging Technology vision system에서 이루어졌다. 이것은 display, acqusition, 4Mbytes image frame memory와 세 개의 연산 카드로 구성되는 modular system이다. 40 MHz로 작동하는 프로그래머불 연산 모듈은 $64{\times}32$ bit instruction cache와 두개의 $1024{\times}32$ bit RAM을 가진 TMS320C31 DSP에 기초를 두고 있다. 그것들은 각각 512 Kbyte static RAM, 4 Mbyte image memory, 1 Mbyte flash EEPROM과 하나의 직렬 포트로 구성되어있다. 모듈간의 데이터 전송과 교환은 8 bit globalvideo bus와 세 개의 local configurable pipeline 8 bit video bus에 의하여 이루어졌고, system management를 위하여 VME bus가 쓰였다. 두 개의 DSP는 왼쪽 및 오른쪽 이미지 edges 검출을 위하여 쓰였고 마지막 processor는 matching process와 3-D 연산에 사용되었다. $512{\times}512$픽셀 이미지에서 이 센서는 scene complexity에 따라 1Hz정도의 조밀한 3-D map을 생성했다. 특수목적의 multiprocessor card들을 사용하면 결과를 향상시킬 수 있을 것이다.

  • PDF