• Title/Summary/Keyword: 3차원 이미지

Search Result 776, Processing Time 0.028 seconds

3D Map Generation System for Indoor Autonomous Navigation (실내 자율 주행을 위한 3D Map 생성 시스템)

  • Moon, SungTae;Han, Sang-Hyuck;Eom, Wesub;Kim, Youn-Kyu
    • Aerospace Engineering and Technology
    • /
    • v.11 no.2
    • /
    • pp.140-148
    • /
    • 2012
  • For autonomous navigation, map, pose tracking, and finding the shortest path are required. Because there is no GPS signal in indoor environment, the current position should be recognized in the 3D map by using image processing or something. In this paper, we explain 3D map creation technology by using depth camera like Kinect and pose tracking in 3D map by using 2D image taking from camera. In addition, the mechanism of avoiding obstacles is discussed.

Microsoft Kinect-based Indoor Building Information Model Acquisition (Kinect(RGB-Depth Camera)를 활용한 실내 공간 정보 모델(BIM) 획득)

  • Kim, Junhee;Yoo, Sae-Woung;Min, Kyung-Won
    • Journal of the Computational Structural Engineering Institute of Korea
    • /
    • v.31 no.4
    • /
    • pp.207-213
    • /
    • 2018
  • This paper investigates applicability of Microsoft $Kinect^{(R)}$, RGB-depth camera, to implement a 3D image and spatial information for sensing a target. The relationship between the image of the Kinect camera and the pixel coordinate system is formulated. The calibration of the camera provides the depth and RGB information of the target. The intrinsic parameters are calculated through a checker board experiment and focal length, principal point, and distortion coefficient are obtained. The extrinsic parameters regarding the relationship between the two Kinect cameras consist of rotational matrix and translational vector. The spatial images of 2D projection space are converted to a 3D images, resulting on spatial information on the basis of the depth and RGB information. The measurement is verified through comparison with the length and location of the 2D images of the target structure.

Spatial Relation Representation using 2D Array (관계기반 구조를 이용한 공간관계 표현 기법\ulcorner)

  • 황종하;황수찬
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.226-228
    • /
    • 2001
  • 헌재 웹에서는 이미지, 3차원 그래픽 등과 같은 다양한 멀티미디어 자료들이 사용되고 있으며, 이러한 이미지 혹은 3차원 그래픽 안에 존재하는 시각 객체 사이의 공간관계에 대해서 내용기반 검색을 수행하기 위해서는 공간관계를 효율적으로 표현할 수 있는 기법과 이를 위한 검색 기법이 필요하다. 본 논문에서는 시각 객체 사이에 존재하는 공간관계를 효율적으로 표현할 수 있는 기법으로 객체를 MBR로 표현해서 2차원 평면에 투영해서 얻어진 관계기반 구조를 이용해서 공간관계 스트링을 추출할 수 있는 기법을 세안하고 이를 이용한 공간관계 검색에 대해서 설명하였다.

  • PDF

Texture Mapping of 3D Scan Face Models (3차원 스캔 얼굴 모델의 텍스처 매핑)

  • Jung, Chul-Hee;Cho, Sun-Young;Lee, Myeong-Won
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2007.10b
    • /
    • pp.212-216
    • /
    • 2007
  • 3D 스캐너의 보급으로 3차원 모델 생성이 가능하게 되었으나 결과로 얻은 형상이 아직 사진에서와 같은 사실적 묘사에 미치지 못하고 있다. 본 논문에서는 얼굴의 3D 스캔 데이터에 효율적인 텍스처 매핑을 통해 사실적 렌더링 결과를 얻을 수 있는 방법을 기술한다. 3D 얼굴 스캔 데이터와 얼굴의 사진 이미지의 좌표를 정확하게 맞추어 3D 스캔 데이터와 얼굴 이미지의 버덱스를 매치시켜주고, 얼굴 이미지의 해당 버텍스에 들어 있는 칼라 값을 3D 스캔 데이터의 버텍스에 넘겨주는 텍스처 매핑을 구현한다. 본 논문에서는 정면, 좌측, 우측 3장의 이미지를 이용하여 간단히 멀티텍스처 매핑을 수행하는 방법과 이 때 발생하는 사진 간의 경계선에서 발생하는 문제 해결에 대해 기술한다.

  • PDF

A Technique for Interpreting and Adjusting Depth Information of each Plane by Applying an Object Detection Algorithm to Multi-plane Light-field Image Converted from Hologram Image (Light-field 이미지로 변환된 다중 평면 홀로그램 영상에 대해 객체 검출 알고리즘을 적용한 평면별 객체의 깊이 정보 해석 및 조절 기법)

  • Young-Gyu Bae;Dong-Ha Shin;Seung-Yeol Lee
    • Journal of Broadcast Engineering
    • /
    • v.28 no.1
    • /
    • pp.31-41
    • /
    • 2023
  • Directly converting the focal depth and image size of computer-generated-hologram (CGH), which is obtained by calculating the interference pattern of light from the 3D image, is known to be quite difficult because of the less similarity between the CGH and the original image. This paper proposes a method for separately converting the each of focal length of the given CGH, which is composed of multi-depth images. Firstly, the proposed technique converts the 3D image reproduced from the CGH into a Light-Field (LF) image composed of a set of 2D images observed from various angles, and the positions of the moving objects for each observed views are checked using an object detection algorithm YOLOv5 (You-Only-Look-Once-version-5). After that, by adjusting the positions of objects, the depth-transformed LF image and CGH are generated. Numerical simulations and experimental results show that the proposed technique can change the focal length within a range of about 3 cm without significant loss of the image quality when applied to the image which have original depth of 10 cm, with a spatial light modulator which has a pixel size of 3.6 ㎛ and a resolution of 3840⨯2160.

Personal-Fit Virtual Try-On iOS Mobile Service using 3D Human body and Clothing model reconstruction (3D 인체 및 의상복원을 사용한 개인체형맞춤 가상착용 iOS 모바일 서비스 설계 및 개발)

  • Yoo, Seungwon;Oh, Sangmin;Ahn, Heejune
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.11a
    • /
    • pp.193-195
    • /
    • 2022
  • 본 논문에서는 3차원 스캔 없이 이미지 입력만을 사용한 개인 체형을 고려한 모바일 가상 착용 시스템의 전체 과정을 설계하고 개발하였다. 이를 위하여 이미지상 인물의 자세와 체형의 추정을 통하여 3차원 인체모델(SMPL)을 추정하는 최근의 방식을 이용하였고, 앞 뒷면 의상 이미지를 2차원 texture 매핑과 평면 triangle mesh로 복원하고 의상 봉제 (sewing) 시뮬레이션을 사용하여 3차원 의상 모델을 생성하는 방법을 새롭게 개발하였다. 또한 이를 활용한 3차원 개인화된 가상 착용 모바일 앱과 서비스를 Flask와 iOS 환경에서 SceneKit을 활용하여 개발하였다. 이를 통하여 단순히 의상의 매칭과 스타일 뿐 아니라 사이즈에 따른 착용 Fit을 구매 전에 확인할 수 있는 전체 서비스를 실현 및 검증하였다.

  • PDF

New Image Editor based on Combination of Bitmap and Vector Method (비트맵과 벡터방식을 혼합한 새로운 이미지 편집기)

  • 김진호;이규남;나인호
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.6 no.2
    • /
    • pp.288-293
    • /
    • 2002
  • It is possible to classify image data into two types according to the internal representation: one is bitmap, the other is vector. A bitmap image is represented by the two dimensional pixels whereas a vector image is represented by mathematical functions to draw vector objects such as line, rectangle and circle on the two or three dimensional space. So it is necessary for users to use a individual application program for each different image. In this paper, we present a method for design and implementation of image editing tool based on combining of bitmap and vector image.

Progressive occupancy network for 3D reconstruction (3차원 형상 복원을 위한 점진적 점유 예측 네트워크)

  • Kim, Yonggyu;Kim, Duksu
    • Journal of the Korea Computer Graphics Society
    • /
    • v.27 no.3
    • /
    • pp.65-74
    • /
    • 2021
  • 3D reconstruction means that reconstructing the 3D shape of the object in an image and a video. We proposed a progressive occupancy network architecture that can recover not only the overall shape of the object but also the local details. Unlike the original occupancy network, which uses a feature vector embedding information of the whole image, we extract and utilize the different levels of image features depending on the receptive field size. We also propose a novel network architecture that applies the image features sequentially to the decoder blocks in the decoder and improves the quality of the reconstructed 3D shape progressively. In addition, we design a novel decoder block structure that combines the different levels of image features properly and uses them for updating the input point feature. We trained our progressive occupancy network with ShapeNet. We compare its representation power with two prior methods, including prior occupancy network(ONet) and the recent work(DISN) that used different levels of image features like ours. From the perspective of evaluation metrics, our network shows better performance than ONet for all the metrics, and it achieved a little better or a compatible score with DISN. For visualization results, we found that our method successfully reconstructs the local details that ONet misses. Also, compare with DISN that fails to reconstruct the thin parts or occluded parts of the object, our progressive occupancy network successfully catches the parts. These results validate the usefulness of the proposed network architecture.

Fashion-show Animation Generation using a Single Image to 3D Human Reconstruction Technique (이미지에서 3차원 인물복원 기법을 사용한 패션쇼 애니메이션 생성기법)

  • Ahn, Heejune;Minar, Matiur Rahman
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.24 no.5
    • /
    • pp.17-25
    • /
    • 2019
  • In this paper, we introduce the technology to convert a single human image into a fashion show animation video clip. The technology can help the customers confirm the dynamic fitting result when combined with the virtual try on technique as well as the interesting experience to a normal person of being a fashion model. We developed an extended technique of full human 2D to 3D inverse modeling based on SMPLify human body inverse modeling technique, and a rigged model animation method. The 3D shape deformation of the full human from the body model was performed by 2 part deformation in the image domain and reconstruction using the estimated depth information. The quality of resultant animation videos are made to be publically available for evaluation. We consider it is a promising approach for commercial application when supplemented with the post - processing technology such as image segmentation technique, mapping technique and restoration technique of obscured area.

Rib Segmentation via Biaxial Slicing and 3D Reconstruction (다중 축 슬라이싱 및 3 차원 재구성을 통한 갈비뼈 세그멘테이션)

  • Hyunsung Kim;Gyurin Byun;Seonghyeon Ko;Junghyun Bum;Duc-Tai Le;Hyunseung Choo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.611-614
    • /
    • 2023
  • 갈비뼈 병변 진단 과정은 방사선 전문의가 CT 스캐너를 통해 생성된 2 차원 CT 이미지들을 해석하며 진행된다. 병변의 위치를 파악하고 정확한 진단을 내리기 위해 수백장의 2차원 CT 이미지들이 세밀하게 검토되며 갈비뼈를 분류한다. 본 연구는 이런 노동 집약적 작업의 문제점을 개선시키기 위해 Biaxial Rib Segmentation(BARS)을 제안한다. BARS 는 흉부 CT 볼륨의 관상면과 수평면으로 구성된 2 차원 이미지들을 U-Net 모델에 학습한다. 모델이 산출한 세그멘테이션 마스크들의 조합은 서로 다른 평면의 공간 정보를 보완하며 3 차원 갈비뼈 볼륨을 재건한다. BARS 의 성능은 DSC, Recall, Precision 지표를 사용해 평가하며, DSC 90.29%, Recall 89.74%, Precision 90.72%를 보인다. 향후에는 이를 기반으로 순차적 갈비뼈 레이블링 연구를 진행할 계획이다.