• 제목/요약/키워드: The 3D image

검색결과 5,074건 처리시간 0.033초

인터렉티브 3D 플로팅 영상 포인팅 장치의 구현 (Implementation of interactive 3D floating image pointing device)

  • 신동학;김은수
    • 한국정보통신학회논문지
    • /
    • 제12권8호
    • /
    • pp.1481-1487
    • /
    • 2008
  • 본 논문에서는3D환경에서의 사용을 위한 새로운 형태의 인터렉티브 3D 플로팅 영상 포인팅 장치를 제안한다. 이 장치는 플로팅 렌즈 배열을 사용한3D플로팅 영상 재생 시스템과 실시간 손가락 검출 기반의 버턴형 인터페이스로 구성된다. 제안하는 장치에서는 사용자가 손가락을 이용하여 3D 공간에 플로팅 된 영상 배열에서 원하는 영역을 지시하고, 2대의 카메라를 이용하여 사용자의 손가락 인식하여 원하는 이벤트를 발생하는 인터렉션 기능을 효과적으로 수행한다. 제안하는 시스템의 유용함을 보이기 위해서, 실험적인 장치 구현을 수행하고 기초적인 실험 결과를 보고한다.

High Performance Millimeter-Wave Image Reject Low-Noise Amplifier Using Inter-stage Tunable Resonators

  • Kim, Jihoon;Kwon, Youngwoo
    • ETRI Journal
    • /
    • 제36권3호
    • /
    • pp.510-513
    • /
    • 2014
  • A Q-band pHEMT image-rejection low-noise amplifier (IR-LNA) is presented using inter-stage tunable resonators. The inter-stage L-C resonators can maximize an image rejection by functioning as inter-stage matching circuits at an operating frequency ($F_{OP}$) and short circuits at an image frequency ($F_{IM}$). In addition, it also brings more wideband image rejection than conventional notch filters. Moreover, tunable varactors in L-C resonators not only compensate for the mismatch of an image frequency induced by the process variation or model error but can also change the image frequency according to a required RF frequency. The implemented pHEMT IR-LNA shows 54.3 dB maximum image rejection ratio (IRR). By changing the varactor bias, the image frequency shifts from 27 GHz to 37 GHz with over 40 dB IRR, a 19.1 dB to 17.6 dB peak gain, and 3.2 dB to 4.3 dB noise figure. To the best of the authors' knowledge, it shows the highest IRR and $F_{IM}/F_{OP}$ of the reported millimeter/quasi-millimeter wave IR-LNAs.

휘도와 수직 위치 정보를 이용한 입체 변환 알고리즘 구현 (Implementation of Real-time Stereoscopic Image Conversion Algorithm Using Luminance and Vertical Position)

  • 윤종호;최명렬
    • 한국산학기술학회논문지
    • /
    • 제9권5호
    • /
    • pp.1225-1233
    • /
    • 2008
  • 본 논문은 2D/3D 변환 알고리즘을 제안하였다. 제안된 알고리즘은 2차원 영상의 단일 프레임을 이용한 것으로 실시간 처리가 가능한 알고리즘이다. 제안된 알고리즘은 하나의 프레임에서 객체의 수직 위치 정보를 이용하여 깊이 지도를 생성한다. 실시간 처리와 하드웨어 복잡도를 개선하기 위해 영상 샘플링, 표준 휘도화를 이용한 객체 분할, 그리고 경계 스캔을 이용한 깊이지도 생성 등을 수행하였다. 동영상, 정지영상 모두 적용이 가능하며, 수직 위치 정보를 이용하므로 원거리 영상 혹은 풍경, 파노라마 사진과 같은 영상도 효과적인 입체 효과를 보여줄 수 있다. 제안된 알고리즘은 객체의 움직임 방향 혹은 속도 또는 장면 전환 등에 제약 없이 입체 효과가 가능하다. 제안 알고리즘 검증은 시각적인 방법과 APD(Absolute Parallax Difference)를 이용하여 MTD (Modified Time Difference)방식과의 비교를 수행하였다.

비디오 프레임 영상으로부터 제작된 자유 입체 모자이크 영상의 실좌표 등록 (Geocoding of the Free Stereo Mosaic Image Generated from Video Sequences)

  • 노명종;조우석;박준구;김정섭;고진우
    • 한국측량학회지
    • /
    • 제29권3호
    • /
    • pp.249-255
    • /
    • 2011
  • 고중복도 비디오카메라 영상을 이용하여 GPS/INS 및 지상기준점 자료 없이 제작되는 자유 입체 모자이크 영상은 기준 프레임 영상의 3차원 모델좌표계로 표현되는 상호표정요소를 이용하여 제작될 수 있다. 이와같이 제작된 자유 입체 모자이크 영상으로부터 결정되는 3차원 좌표는 3차원 모델좌표계로 나타내게 된다. 따라서 자유 입체 모자이크 영상을 이용하여 절대좌표를 결정하기 위해서는 모델좌표계를 절대좌표계로 변환하기 위한 방법이 필요하다. 일반적으로 서로 다른 두 개의 3차원 직각 좌표계간의 좌표변환은 3차원 상사변환(similarity transformation)이 사용된다. 하지만 자유 입체 모자이크 영상의 3차원 모델좌표는 원점으로부터 떨어질수록 오차가 누적되어 선형변환을 이용한 좌표변환을 수행하기 어렵다. 따라서 이러한 자유 입체 모자이크 영상의 모델좌표를 절대좌표로 변환하기 위한 3차원 비선형 변환 방법이 필요하다. 또한 절대좌표계로 표현된 수치지도와 입체 모자이크 영상을 중첩하여 사용하기 위해서는 자유 입체 모자이크 영상을 실좌표 입체 모자이크 영상으로 변환하기 위한 방법이 필요하다. 따라서 본 연구에서는 자유 입체 모자이크 영상의 3차원 모델좌표를 3차원 절대좌표로 변환하기 위한 3차원 비선형 변환 방법과 이 방법을 기반으로 자유 입체 모자이크 영상을 실좌표 입체 모자이크 영상으로 제작하기 위한 2차원 비선형 변환방법을 제안하였다.

360˚ VR 실사 영상과 3D Computer Graphic 영상 합성 편집에 관한 연구 (Study on Compositing Editing of 360˚ VR Actual Video and 3D Computer Graphic Video)

  • 이랑구;정진헌
    • 디지털융복합연구
    • /
    • 제17권4호
    • /
    • pp.255-260
    • /
    • 2019
  • 연구는 $360^{\circ}$ 동영상과 3D 그래픽의 효율적인 합성 방법에 관한 연구이다. 먼저, 이안식 일체형 $360^{\circ}$ 카메라로 촬영한 영상을 스티칭하고, 영상에서 카메라 및 사물의 위치값을 추출하였다. 그리고 추출한 위치값의 데이터를 3D 프로그램으로 불러와 3D 오브젝트를 생성하고, 자연스러운 합성을 위한 방법에 관하여 연구하였다. 그 결과 $360^{\circ}$ 동영상과 3D 그래픽의 자연스러운 합성을 위한 방법으로 렌더링 요소와 렌더링 기법을 도출할 수 있었다. 첫째, 렌더링 요소로는 3D 오브젝트의 위치와 재질, 조명과 그림자가 있었고, 둘째, 렌더링 기법으로는 실사 기반 렌더링 기법의 필요성을 찾을 수 있었다. 본 연구 과정 및 결과를 통해 $360^{\circ}$ 동영상과 3D 그래픽의 자연스러운 합성에 관한 방법을 제시함으로써, $360^{\circ}$ 동영상 및 VR 영상 콘텐츠의 연구와 제작 분야에 도움이 될 것으로 기대한다.

3D 영상 시청 시 시각반응의 평가 (Evaluation of Visual Responses in Viewing a 3D Image)

  • 이무혁;손정식;김재도;유동식
    • 한국안광학회지
    • /
    • 제17권2호
    • /
    • pp.165-170
    • /
    • 2012
  • 목적: 2D와 3D 영상 시청에서 나타나는 시각반응의 변화를 측정하고 평가하고자 하였다. 방법: 시기능이 정상인만 19세 이상 25세 이하의 대학생 44명을 대상으로 하였다. CA/C비(convergence accommodation/convergence ratio), 폭주로 유도되는 PD(interpupillary distance)변화와 조절반응, 3D 영상 시청 시 자각적 인지거리를 측정하였다. 결과: 폭주와 조절은 2D 영상 시청보다 3D 영상 시청에서 더 컸으며(p<0.05), CA/C비와 조절반응은 양적 상관관계(r = 0.477, p = 0.001)를 보였다. PD가 작을수록 심도지각의 깊이는 큰 것으로 나타났으며, 3D 영상에서 폭주는 인지하고 있는 거리에서의 폭주보다 더 큰 것으로 나타났다. 결론: CA/C비가 클수록, PD가 작을수록 3D 영상 시청에서 시각적 불편함은 더 심할 것으로 예상된다.

다중 디지털 사진을 이용한 3차원 이미지 모델 생성 (Generation of 3 Dimensional Image Model from Multiple Digital Photographs)

  • 정태은;석정민;신효철;류재평
    • 한국정밀공학회:학술대회논문집
    • /
    • 한국정밀공학회 2003년도 춘계학술대회 논문집
    • /
    • pp.1634-1637
    • /
    • 2003
  • Any given object on the motor-driven turntable is pictured from 8 to 72 different views with a digital camera. 3D shape reconstruction is performed with the integrated software called by Scanware from these multiple digital photographs. There are several steps such as configuration, calibration, capturing, segmentation, shape creation, texturing and merging process during the shape reconstruction process. 3D geometry data can be exported to cad data such as Autocad input file. Also 3D image model is generated from 3D geometry and texture data, and is used to advertise the model in the internet environment. Consumers can see the object realistically from wanted views by rotating or zooming in the internet browsers with Scanbull spx plug-in. The spx format allows a compact saving of 3D objects to handle or download. There are many types of scan equipments such as laser scanners and photogrammetric scanners. Line or point scan methods by laser can generate precise 3D geometry but cannot obtain color textures in general. Reversely, 3D image modeling with photogrammetry can generate not only geometries but also textures from associated polygons. We got various 3D image models and introduced the process of getting 3D image model of an internet-connected watchdog robot.

  • PDF

1차원 FN-MLCA와 3차원 카오틱 캣 맵 기반의 컬러 이미지 암호화 (1D FN-MLCA and 3D Chaotic Cat Map Based Color Image Encryption)

  • 최언숙
    • 한국멀티미디어학회논문지
    • /
    • 제24권3호
    • /
    • pp.406-415
    • /
    • 2021
  • The worldwide spread of the Internet and the digital information revolution have resulted in a rapid increase in the use and transmission of multimedia information due to the rapid development of communication technologies. It is important to protect images in order to prevent problems such as piracy and illegal distribution. To solve this problem, I propose a new digital color image encryption algorithm in this paper. I design a new pseudo-random number generator based on 1D five-neighborhood maximum length cellular automata (FN-MLCA) to change the pixel values of the plain image into unpredictable values. And then I use a 3D chaotic cat map to effectively shuffle the positions of the image pixel. In this paper, I propose a method to construct a new MLCA by modeling 1D FN-MLCA. This result is an extension of 1D 3-neighborhood CA and shows that more 1D MLCAs can be synthesized. The safety of the proposed algorithm is verified through various statistical analyses.

A Study on Representation of 3D Virtual Fabric Simulation with Drape Image Analysis II - Focus on the Comparison between Real Clothing and 3D Virtual Clothing -

  • Lee, Min-Jeong;Sohn, Hee-Soon;Kim, Jong-Jun
    • 패션비즈니스
    • /
    • 제15권3호
    • /
    • pp.97-111
    • /
    • 2011
  • This study aims to apply 3D virtual fabric parameters - as obtained from previous research experiments - to 3D virtual clothing simulation in comparing its similarity with actual clothing as worn, with a view to verifying the objectivity and validity of the 3D virtual fabric simulation method devised by the drape image analysis method. In addition, the result is intended to be used as the basic data for new 3D virtual clothing simulation methods. As the results, 3D virtual fabric parameters designed to simulate 3D drape to be similar to actual fabrics were found to be Bending Strength, Buckling Point, Density, Particle Distance, and Shear. They were also found to be important measurements when evaluating visual similarity between drape shadow images and number of nodes. 3D virtual fabric simulation method devised by the drape image analysis method was appropriate in extracting 3D fabric parameters with the reflection of actual fabrics' physical and dynamic characteristics, in connection with 3D virtual fabric simulation. 3D virtual fabric parameters with the reflection of actual fabrics' physical and dynamic characteristics using the proposed 3D virtual fabric simulation method are accumulated and provided as a standard, this will facilitate the introduction 3D virtual fabric simulation technology.

Implementation of 3D Moving Target-Tracking System based on MSE and BPEJTC Algorithms

  • Ko, Jung-Hwan;Lee, Maeng-Ho;Kim, Eun-Soo
    • Journal of Information Display
    • /
    • 제5권1호
    • /
    • pp.41-46
    • /
    • 2004
  • In this paper, a new stereo 3D moving-target tracking system using the MSE (mean square error) and BPEJTC (binary phase extraction joint transform correlator) algorithms is proposed. A moving target is extracted from the sequential input stereo image by applying a region-based MSE algorithm following which, the location coordinates of a moving target in each frame are obtained through correlation between the extracted target image and the input stereo image by using the BPEJTC algorithm. Through several experiments performed with 20 frames of the stereo image pair with $640{\times}480$ pixels, we confirmed that the proposed system is capable of tracking a moving target at a relatively low error ratio of 1.29 % on average at real time.