• 제목/요약/키워드: 3D Image Map

검색결과 457건 처리시간 0.03초

선형적 위상배열 코일구조의 시뮬레이션을 통한 민감도지도의 공간 해상도 및 필터링 변화에 따른 MR-SENSE 영상재구성 평가 (Evaluation of MR-SENSE Reconstruction by Filtering Effect and Spatial Resolution of the Sensitivity Map for the Simulation-Based Linear Coil Array)

  • 이동훈;홍철표;한봉수;김형진;서재준;김소현;이춘형;이만우
    • 대한의용생체공학회:의공학회지
    • /
    • 제32권3호
    • /
    • pp.245-250
    • /
    • 2011
  • Parallel imaging technique can provide several advantages for a multitude of MRI applications. Especially, in SENSE technique, sensitivity maps were always required in order to determine the reconstruction matrix, therefore, a number of difference approaches using sensitivity information from coils have been demonstrated to improve of image quality. Moreover, many filtering methods were proposed such as adaptive matched filter and nonlinear diffusion technique to optimize the suppression of background noise and to improve of image quality. In this study, we performed SENSE reconstruction using computer simulations to confirm the most suitable method for the feasibility of filtering effect and according to changing order of polynomial fit that were applied on variation of spatial resolution of sensitivity map. The image was obtained at 0.32T(Magfinder II, Genpia, Korea) MRI system using spin-echo pulse sequence(TR/TE = 500/20 ms, FOV = 300 mm, matrix = $128{\times}128$, thickness = 8 mm). For the simulation, obtained image was multiplied with four linear-array coil sensitivities which were formed of 2D-gaussian distribution and the image was complex white gaussian noise was added. Image processing was separated to apply two methods which were polynomial fitting and filtering according to spatial resolution of sensitivity map and each coil image was subsampled corresponding to reduction factor(r-factor) of 2 and 4. The results were compared to mean value of geomety factor(g-factor) and artifact power(AP) according to r-factor 2 and 4. Our results were represented while changing of spatial resolution of sensitivity map and r-factor, polynomial fit methods were represented the better results compared with general filtering methods. Although our result had limitation of computer simulation study instead of applying to experiment and coil geometric array such as linear, our method may be useful for determination of optimal sensitivity map in a linear coil array.

Self-Organization of Visuo-Motor Map Considering an Obstacle

  • Maruki, Yuji
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2003년도 ICCAS
    • /
    • pp.1168-1171
    • /
    • 2003
  • The visuo-motor map is based on the Kohonen's self-organizing map. The map is learned the relation of the end effecter coordinates and the joint angles. In this paper, a 3 d-o-fmanipulator which moves in the 2D space is targeted. A CCD camera is set beside the manipulator, and the end effecter coordinates are given from the image of a manipulator. As a result of learning, the end effecter can be moved to the destination without exact teaching.

  • PDF

실내환경에서의 2 차원/ 3 차원 Map Modeling 제작기법 (A 2D / 3D Map Modeling of Indoor Environment)

  • 조상우;박진우;권용무;안상철
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.355-361
    • /
    • 2006
  • In large scale environments like airport, museum, large warehouse and department store, autonomous mobile robots will play an important role in security and surveillance tasks. Robotic security guards will give the surveyed information of large scale environments and communicate with human operator with that kind of data such as if there is an object or not and a window is open. Both for visualization of information and as human machine interface for remote control, a 3D model can give much more useful information than the typical 2D maps used in many robotic applications today. It is easier to understandable and makes user feel like being in a location of robot so that user could interact with robot more naturally in a remote circumstance and see structures such as windows and doors that cannot be seen in a 2D model. In this paper we present our simple and easy to use method to obtain a 3D textured model. For expression of reality, we need to integrate the 3D models and real scenes. Most of other cases of 3D modeling method consist of two data acquisition devices. One for getting a 3D model and another for obtaining realistic textures. In this case, the former device would be 2D laser range-finder and the latter device would be common camera. Our algorithm consists of building a measurement-based 2D metric map which is acquired by laser range-finder, texture acquisition/stitching and texture-mapping to corresponding 3D model. The algorithm is implemented with laser sensor for obtaining 2D/3D metric map and two cameras for gathering texture. Our geometric 3D model consists of planes that model the floor and walls. The geometry of the planes is extracted from the 2D metric map data. Textures for the floor and walls are generated from the images captured by two 1394 cameras which have wide Field of View angle. Image stitching and image cutting process is used to generate textured images for corresponding with a 3D model. The algorithm is applied to 2 cases which are corridor and space that has the four wall like room of building. The generated 3D map model of indoor environment is shown with VRML format and can be viewed in a web browser with a VRML plug-in. The proposed algorithm can be applied to 3D model-based remote surveillance system through WWW.

  • PDF

영상합성을 위한 3D 공간 해석 및 조명환경의 재구성 (3D Analysis of Scene and Light Environment Reconstruction for Image Synthesis)

  • 황용호;홍현기
    • 한국게임학회 논문지
    • /
    • 제6권2호
    • /
    • pp.45-50
    • /
    • 2006
  • 실 세계 공간에 가상 물체를 사실적으로 합성하기 위해서는 공간 내에 존재하는 조명정보 등을 분석해야 한다. 본 논문에서는 카메라에 대한 사전 교정(calibration)없이 카메라 및 조명의 위치 등을 추정하는 새로운 조명공간 재구성 방법이 제안된다. 먼저, 어안렌즈(fisheye lens)로부터 얻어진 전방향(omni-directional) 다중 노출 영상을 이용해 HDR (High Dynamic Range) 래디언스 맵(radiance map)을 생성한다. 그리고 다수의 대응점으로부터 카메라의 위치를 추정한 다음, 방향벡터를 이용해 조명의 위치를 재구성한다. 또한 대상 공간 내 많은 영향을 미치는 전역 조명과 일부 지역에 국한되어 영향을 주는 방향성을 갖는 지역 조명으로 분류하여 조명 환경을 재구성한다. 재구성된 조명환경 내에서 분산광선추적(distributed ray tracing) 방법으로 렌더링한 결과로부터 사실적인 합성영상이 얻어짐을 확인하였다. 제안된 방법은 카메라의 사전 교정 등이 필요하지 않으며 조명공간을 자동으로 재구성할 수 있는 장점이 있다.

  • PDF

Depth layer partition을 이용한 2D 동영상의 3D 변환 기법 (3D conversion of 2D video using depth layer partition)

  • 김수동;유지상
    • 방송공학회논문지
    • /
    • 제16권1호
    • /
    • pp.44-53
    • /
    • 2011
  • 본 논문에서는 depth layer partition을 이용한 2D 동영상의 자동 3D 변환 기법을 제안한다. 제안하는 기법에서는 먼저 2D 동영상의 장면 전환점을 검출하여 각각의 프레임 그룹을 설정하여 움직임 연산 과정에서의 오류 확산을 방지하여 깊이맵(depth map) 생성과 정에서 오차를 줄여준다. 깊이정보는 두 가지 방법으로 생성되는데 하나는 영역 분할과 움직임 정보를 이용하여 깊이맵을 추출하는 것이고 다른 하나는 에지 방향성 히스토그램(edge directional histogram)을 이용하는 방법이다. 제안하는 기법에서는 객체와 배경을 분리하는 depth layer partition 과정을 수행한 후 생성된 두 개의 깊이맵을 원 영상에 최적이 되도록 병합하게 된다. 제안된 기법으로 신뢰도 높은 깊이맵과 결과 영상을 생성할 수 있다는 것을 다양한 실험 결과를 통해 알 수 있다.

Enhancing Depth Accuracy on the Region of Interest in a Scene for Depth Image Based Rendering

  • Cho, Yongjoo;Seo, Kiyoung;Park, Kyoung Shin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제8권7호
    • /
    • pp.2434-2448
    • /
    • 2014
  • This research proposed the domain division depth map quantization for multiview intermediate image generation using Depth Image-Based Rendering (DIBR). This technique used per-pixel depth quantization according to the percentage of depth bits assigned in domains of depth range. A comparative experiment was conducted to investigate the potential benefits of the proposed method against the linear depth quantization on DIBR multiview intermediate image generation. The experiment evaluated three quantization methods with computer-generated 3D scenes, which consisted of various scene complexities and backgrounds, under varying the depth resolution. The results showed that the proposed domain division depth quantization method outperformed the linear method on the 7- bit or lower depth map, especially in the scene with the large object.

단일 프레임 영상에서 초점을 이용한 깊이정보 생성에 관한 연구 (A Study on Create Depth Map using Focus/Defocus in single frame)

  • 한현호;이강성;이상훈
    • 디지털융복합연구
    • /
    • 제10권4호
    • /
    • pp.191-197
    • /
    • 2012
  • 본 논문에서는 단일 프레임 영상에서 초점을 이용하여 초기 깊이정보를 추출한 후 입체 영상을 생성하는 방법을 제안하였다. 단일 프레임 영상에서 깊이를 추정하기 위해 원본 영상과 가우시안 필터를 중첩 적용하여 생성된 영상의 비교를 통해 영상의 초점 값을 추출하고 추출된 값을 기반으로 초기 깊이정보를 생성하도록 하였다. 생성된 초기 깊이정보를 Normalized cut을 이용한 객체 분할 결과에 할당하고 각 객체의 깊이를 객체 내 깊이 정보의 평균값으로 보정하여 동일 객체가 같은 깊이 값을 갖도록 하였다. 객체를 제외한 배경 영역은 객체를 제외한 배경 영역의 에지 정보를 이용하여 깊이를 생성하였다. 생성된 깊이를 DIBR(Depth Image Based Rendering)을 이용하여 입체 영상으로 변환하였고 기존 알고리즘을 통해 생성된 영상과 비교 분석하였다.

스테레오 깊이 정보를 이용한 점유맵 구축 기법과 응용 (A Technique for Building Occupancy Maps Using Stereo Depth Information and Its Application)

  • 김낙현;오세준
    • 대한전자공학회논문지SP
    • /
    • 제45권3호
    • /
    • pp.1-10
    • /
    • 2008
  • 점유맵은 3차원 공간상에서 장애물이 놓인 부분과 빈 공간을 구분해서 2차원 평면상에 표현하는 방식으로 자율 내비게이션이나 물체 인식 등을 위해 사용된다. 본 논문에서는 스테레오 영상에서 추출된 깊이 정보를 활용하여 3차원 공간의 점유맵을 구축하고 그 정보를 물체 영역 추출에 활용하는 기법을 제안한다. 스테레오 깊이 영상에서 기반 평면을 추출한 다음, 각 정합점들을 기반 평면 중심 좌표계로 투사하여 점유맵을 추출한다. 본 연구에서는 이렇게 추출된 점유맵을 활용하여 실내외의 다양한 환경에서 움직임 물체 영역을 추출하였는데, 실제 실험 영상을 홍해 제안된 방식의 유용성을 확인한다.

영상 기반 모델링 기법을 이용한 대화식 3차원 입체 영상 저작 시스템 (Interactive 3D Stereoscopic Image Editing System using Image-based modeling)

  • 윤창옥;윤태수;이동훈
    • Journal of the Korean Society for Industrial and Applied Mathematics
    • /
    • 제10권2호
    • /
    • pp.53-66
    • /
    • 2006
  • 최근 몰입도가 높은 가시화 기법 중 하나인 3차원 입체영상에 관심이 높아지고 있다. 그러나 일반적인 2차원 영상과는 달리 3차원 입체 영상은 3차원의 기하정보가 존재해야만 영상 생성이 가능하다. 3차원 기하정보가 존재하지 않는 2차원 영상을 이용한 입체 영상 저작이 매우 어렵다. 따라서 본 논문에서는 영상 기반 모델링 기법을 이용한 한 장의 실사 영상으로부터 3차원 입체 영상 생성하기 위한 3차원 입체 영상 저작 시스템을 제안한다. 제안한 시스템은 Adobe Photoshop(R)의 Plug-in형태로 개발함으로써 범용성과 확장성을 고려하였고 몰입감이 높은 입체 영상의 시점을 결정하기 위한 대화식 3차원 입체 영상 미리 보기 기능을 제공한다.

  • PDF

이동로봇의 물체인식 기반 전역적 자기위치 추정 (Object Recognition-based Global Localization for Mobile Robots)

  • 박순용;박민용;박성기
    • 로봇학회논문지
    • /
    • 제3권1호
    • /
    • pp.33-41
    • /
    • 2008
  • Based on object recognition technology, we present a new global localization method for robot navigation. For doing this, we model any indoor environment using the following visual cues with a stereo camera; view-based image features for object recognition and those 3D positions for object pose estimation. Also, we use the depth information at the horizontal centerline in image where optical axis passes through, which is similar to the data of the 2D laser range finder. Therefore, we can build a hybrid local node for a topological map that is composed of an indoor environment metric map and an object location map. Based on such modeling, we suggest a coarse-to-fine strategy for estimating the global localization of a mobile robot. The coarse pose is obtained by means of object recognition and SVD based least-squares fitting, and then its refined pose is estimated with a particle filtering algorithm. With real experiments, we show that the proposed method can be an effective vision- based global localization algorithm.

  • PDF