• 제목/요약/키워드: 어안

검색결과 95건 처리시간 0.026초

영상합성을 위한 3D 공간 해석 및 조명환경의 재구성 (3D Analysis of Scene and Light Environment Reconstruction for Image Synthesis)

  • 황용호;홍현기
    • 한국게임학회 논문지
    • /
    • 제6권2호
    • /
    • pp.45-50
    • /
    • 2006
  • 실 세계 공간에 가상 물체를 사실적으로 합성하기 위해서는 공간 내에 존재하는 조명정보 등을 분석해야 한다. 본 논문에서는 카메라에 대한 사전 교정(calibration)없이 카메라 및 조명의 위치 등을 추정하는 새로운 조명공간 재구성 방법이 제안된다. 먼저, 어안렌즈(fisheye lens)로부터 얻어진 전방향(omni-directional) 다중 노출 영상을 이용해 HDR (High Dynamic Range) 래디언스 맵(radiance map)을 생성한다. 그리고 다수의 대응점으로부터 카메라의 위치를 추정한 다음, 방향벡터를 이용해 조명의 위치를 재구성한다. 또한 대상 공간 내 많은 영향을 미치는 전역 조명과 일부 지역에 국한되어 영향을 주는 방향성을 갖는 지역 조명으로 분류하여 조명 환경을 재구성한다. 재구성된 조명환경 내에서 분산광선추적(distributed ray tracing) 방법으로 렌더링한 결과로부터 사실적인 합성영상이 얻어짐을 확인하였다. 제안된 방법은 카메라의 사전 교정 등이 필요하지 않으며 조명공간을 자동으로 재구성할 수 있는 장점이 있다.

  • PDF

사진측량 기법을 사용한 광각렌즈 왜곡보정에 관한 연구 (The Research for the Wide-Angle Lens Distortion Correction by Photogrammetry Techniques)

  • 강진아;박재민;김병국
    • 한국측량학회지
    • /
    • 제26권2호
    • /
    • pp.103-110
    • /
    • 2008
  • 현재 사진측량 분야에서 널리 사용되는 표준렌즈의 경우 비교적 좁은 시야각으로 인하여 취득한 영상에 대한 영상정합 기법을 적용하고 있으며 이로 인하여 시간적, 경제적인 비용이 많이 요구되고 있다. 최근 이러한 표준렌즈의 단점을 보완하기 위하여 로보틱스 분야에 널리 사용되고 있는 광각렌즈를 사진측량학에 응용하는 연구가 진행되고 있다. 이 연구에서는 사진측량에서 사용되는 왜곡보정 방법을 저가형 로봇에서 사용되는 광각어안렌즈에 적용하여 광각렌즈에 적합한 보정모델을 개발하였다. 이를 위하여 광각렌즈영상 보정을 위한 왜곡계수를 산출하였으며, 관측한 영상점을 왜곡이 보정된 영상점으로 위치를 보정하는 프로그램을 개발하였다. 개발된 알고리즘을 검정하기 위하여 모양과 위치에 대한 검정을 실시하였으며, 그 결과 약 3픽셀의 2D RMSE와 cx = 2, cy = 3의 차이가 나타났다.

Ti-6Al-4V재의 UNSM처리에 의한 축인장압축피로특성변화 (Variation of Axial Tension-Compression Fatigue Characteristics by UNSM on Ti-6Al-4V)

  • 서창민;조성암;편영식;서민수
    • 한국해양공학회지
    • /
    • 제25권6호
    • /
    • pp.42-48
    • /
    • 2011
  • The present study makes three original contributions to nanoskinned Ti-6Al-4V materials. The nanoskins were fabricated on Ti-6Al-4V material using various surface treatments: deep rolling (DR), laser shot peening (LSP), and ultrasonic nanocrystal surface modification (UNSM). These surface treatments are newly developed techniques and are becoming more popular in industrial fields. A fatigue strength comparison at up to 106 cycles was conducted on these nanoskinned Ti-6Al-4V materials. Fatigue tests were carried out using MTS under axial loading tension-compression fatigue (R = -1, RT, 5 Hz, sinusoidal wave). The analysis of the crack initiation patterns in the nanoskinned Ti-6Al-4V materials found an interior originating crack pattern and surface originating crack type. Microscopic observation was mainly used to investigate the fatigue fractured sites. These surface modification techniques have been widely adopted, primarily because of the robust grade of their mechanical properties. These are mainly the result of the formation of a large-scale, deep, and useful compressive residual stress, the formation of nanocrystals by the severe plastic deformation (SPD) at the subsurface layer, and the increase in surface hardness.

어안 이미지 기반의 움직임 추정 기법을 이용한 전방향 영상 SLAM (Omni-directional Vision SLAM using a Motion Estimation Method based on Fisheye Image)

  • 최윤원;최정원;대염염;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권8호
    • /
    • pp.868-874
    • /
    • 2014
  • This paper proposes a novel mapping algorithm in Omni-directional Vision SLAM based on an obstacle's feature extraction using Lucas-Kanade Optical Flow motion detection and images obtained through fish-eye lenses mounted on robots. Omni-directional image sensors have distortion problems because they use a fish-eye lens or mirror, but it is possible in real time image processing for mobile robots because it measured all information around the robot at one time. In previous Omni-Directional Vision SLAM research, feature points in corrected fisheye images were used but the proposed algorithm corrected only the feature point of the obstacle. We obtained faster processing than previous systems through this process. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we remove the feature points of the floor surface using a histogram filter, and label the candidates of the obstacle extracted. Third, we estimate the location of obstacles based on motion vectors using LKOF. Finally, it estimates the robot position using an Extended Kalman Filter based on the obstacle position obtained by LKOF and creates a map. We will confirm the reliability of the mapping algorithm using motion estimation based on fisheye images through the comparison between maps obtained using the proposed algorithm and real maps.

가혹한 조건에 대응하기 위한 차량용 카메라의 개선된 영상복원 알고리즘 (Improved Image Restoration Algorithm about Vehicle Camera for Corresponding of Harsh Conditions)

  • 장영민;조상복;이종화
    • 전자공학회논문지
    • /
    • 제51권2호
    • /
    • pp.114-123
    • /
    • 2014
  • 자동차용 영상 사고기록장치(블랙박스)는 도로위의 일반적인 상황만을 촬영하게 된다. 또한, 급격한 조도변화의 상황에서는 주위의 환경을 제대로 인식하기 어렵고 렌즈 자체의 왜곡이 매우 심하기 때문에 사고 발생 시 명확한 증거로 사용하기 어렵다. 이러한 문제를 해결하기 위한 첫 번째 방법으로 정규화된 밝기 정보의 수표현자인 NLD(Normalized Luminance Descriptor)값과 정규화된 명암정보의 수표현자인 NCD(Normalized Contrast Descriptor)값을 정의하여 추출하고 두 값의 관계를 갖는 영상의 수표현자인 NIQ(Normalized Image Quality)값을 사용하여 급격한 조도변화에 대응하였다. 두 번째로, 어안렌즈가 디자인되는 방법을 기본으로 하는 FOV(Field Of View)모델을 이용하여 렌즈의 왜곡을 보정한다. 결과적으로 두 가지 영상왜곡은 각각 감마보정 및 렌즈왜곡보정의 영상처리 기법을 사용하여 병렬로 처리한 후 이를 하나의 영상으로 통합하는 알고리즘을 제안한다.

어안 이미지 기반의 전방향 영상 SLAM을 이용한 충돌 회피 (Collision Avoidance Using Omni Vision SLAM Based on Fisheye Image)

  • 최윤원;최정원;임성규;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제22권3호
    • /
    • pp.210-216
    • /
    • 2016
  • This paper presents a novel collision avoidance technique for mobile robots based on omni-directional vision simultaneous localization and mapping (SLAM). This method estimates the avoidance path and speed of a robot from the location of an obstacle, which can be detected using the Lucas-Kanade Optical Flow in images obtained through fish-eye cameras mounted on the robots. The conventional methods suggest avoidance paths by constructing an arbitrary force field around the obstacle found in the complete map obtained through the SLAM. Robots can also avoid obstacles by using the speed command based on the robot modeling and curved movement path of the robot. The recent research has been improved by optimizing the algorithm for the actual robot. However, research related to a robot using omni-directional vision SLAM to acquire around information at once has been comparatively less studied. The robot with the proposed algorithm avoids obstacles according to the estimated avoidance path based on the map obtained through an omni-directional vision SLAM using a fisheye image, and returns to the original path. In particular, it avoids the obstacles with various speed and direction using acceleration components based on motion information obtained by analyzing around the obstacles. The experimental results confirm the reliability of an avoidance algorithm through comparison between position obtained by the proposed algorithm and the real position collected while avoiding the obstacles.

어안 워핑 이미지 기반의 Ego motion을 이용한 위치 인식 알고리즘 (Localization using Ego Motion based on Fisheye Warping Image)

  • 최윤원;최경식;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권1호
    • /
    • pp.70-77
    • /
    • 2014
  • This paper proposes a novel localization algorithm based on ego-motion which used Lucas-Kanade Optical Flow and warping image obtained through fish-eye lenses mounted on the robots. The omnidirectional image sensor is a desirable sensor for real-time view-based recognition of a robot because the all information around the robot can be obtained simultaneously. The preprocessing (distortion correction, image merge, etc.) of the omnidirectional image which obtained by camera using reflect in mirror or by connection of multiple camera images is essential because it is difficult to obtain information from the original image. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we extract motion vectors using Lucas-Kanade Optical Flow in preprocessed image. Third, we estimate the robot position and angle using ego-motion method which used direction of vector and vanishing point obtained by RANSAC. We confirmed the reliability of localization algorithm using ego-motion based on fisheye warping image through comparison between results (position and angle) of the experiment obtained using the proposed algorithm and results of the experiment measured from Global Vision Localization System.

VR 영상 콘텐츠 제작에 유용한 360도 이미지 제작 방법에 관한 연구 (A Study on 360° Image Production Method for VR Image Contents)

  • 곽대위;정진헌
    • 디지털융복합연구
    • /
    • 제15권12호
    • /
    • pp.543-548
    • /
    • 2017
  • 360도 이미지는 대중에게 이전에 경험하지 못했던 특별한 시각적 경험을 제공한다. 360도 이미지를 제작할 수 있는 방법은 여러 가지가 있지만, 본 논문에서는 기존의 제작방식을 포함하여 간단하며 유효한 두 가지의 제작방법을 제시하고자 한다. 첫 번째 방법으로는 48장의 이미지를 합성하여 한 장의 360도 이미지를 만드는 것이고, 두 번째 방법으로는 6장의 이미지를 사용하여 한 장의 360도 이미지를 제작하는 것이다. 앞서 제시한 두 가지 제작 방식의 특징과 장단점의 비교를 통하여 더욱 간단하면서도 효율적인 제작방식을 선택할 수 있다. 소개를 통하여 제시되는 제작방법은 VR작품 제작의 문턱을 낮출 수 있으며, 일반인들도 360이미지 제작을 더욱 간편하게 할 수 있게 됨으로써 VR영상 콘텐츠 산업이 더욱 발전될 수 있을 것으로 기대한다.

사영 컨투어를 이용한 전방향 카메라의 움직임 추정 방법 (Omnidirectional Camera Motion Estimation Using Projected Contours)

  • 황용호;이재만;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제44권5호
    • /
    • pp.35-44
    • /
    • 2007
  • 넓은 시야각을 갖는 전방향(omnidirectional) 카메라 시스템은 적은 수의 영상으로도 주변 장면에 대해 많은 정보를 취득할 수 있는 장점으로 카메라 교정(calibration), 공간의 3차원 재구성(reconstruction) 등에 널리 응용되고 있다. 실 세계에 존재하는 직선 성분들은 전방향 카메라 모델에 의해 컨투어로 사영(projection)되기 때문에, 영상간에 대응되는 컨투어 성분은 카메라의 회전 및 이동 등의 추정에 효과적으로 활용될 수 있다. 본 논문에서는 전방향 카메라의 변환 파라미터를 추정하기 위한 2단계 최소화 알고리즘이 제안된다. 제안된 알고리즘은 컨투어를 이루는 대응점에 대한 에피폴라(epipolar) 평면과 3차원 벡터간의 각도 오차함수 및 사영된 컨투어의 거리 오차를 단계별로 최소화하는 카메라 파라미터를 계산한다. 등거리(equidistance) 사영된 합성영상과 어안렌즈(fisheye lens)로 취득한 실제 영상을 대상으로 제안된 알고리즘이 카메라의 위치 정보를 정확하게 추정함을 확인하였다.

투영곡선의 자동정합을 이용한 전방향 카메라 보정 (Using Contour Matching for Omnidirectional Camera Calibration)

  • 황용호;홍현기
    • 대한전자공학회논문지SP
    • /
    • 제45권6호
    • /
    • pp.125-132
    • /
    • 2008
  • 감시 및 로보트 분야 등에서 다양하게 사용되는 전방향(omnidirectional) 카메라 시스템은 넓은 시야각을 제공한다. 전방향 카메라의 사영모델과 외부변수를 추정하는 대부분의 기존 연구에서는 사전에 설정된 영상 간의 대응관계를 가정한다. 본 논문에서는 두 장의 전방향 영상으로부터 투영곡선을 자동으로 정합하여 카메라의 외부변수를 추정하는 새로운 알고리즘이 제안된다. 먼저 두 영상에서 대응되는 특징점으로부터 에피폴라 구속조건을 계산하여 초기 카메라 변수를 계산한다. 검출된 특징점과 투영곡선을 대상으로 능동적(active) 정합방법으로 대응관계를 결정한다. 최종 단계에서 대응 투영곡선을 구성하는 양 끝점의 에피폴라(epipolar) 평면과 3차원 벡터의 각도 오차를 최소화하는 카메라 변수를 추정한다. 합성영상과 어안렌즈(fisheye lens)로 취득된 실제 영상을 대상으로 제안된 알고리즘이 기존 방법에 비해 카메라의 외부변수를 정확하게 추정함을 확인하였다.