• 제목/요약/키워드: omnidirectional image

검색결과 58건 처리시간 0.025초

다각도 방사선촬영 및 투시법을 이용한 정상 고양이 장기의 형태학적 연구 (Morphological study on abdominal organs of healthy cats using omnidirectional radiography and fluoroscopy)

  • 신사경;히로세 츠네오;사토 모토요시;미아하라 카쯔노
    • 대한수의학회지
    • /
    • 제36권4호
    • /
    • pp.949-966
    • /
    • 1996
  • 형태학적으로 가장 효과적인 X-선 촬영 및 투시각도를 연구하기 위해서 전방향 방호X-선기와 소동물용 $360^{\circ}$ 회전형 보정장치를 이용하여 고양이의 복부장기를 대상으로 방사선 투시와 촬영을 병행하여 조사하였다. 조사한 장기는 횡격막, 간, 위, 결장, 비장, 신장이였다. 본 연구에서 얻어진 결과는 다음과 같다. 1. 횡격막은 $30^{\circ}$에서 $90^{\circ}$ 각도 사이에서 가장 선명한 결과를 얻을 수 있었다. 2. 간의 좌엽과 중간엽은 수평면의 $60^{\circ}$ 각도에서 관찰된 반면, 우엽은 수직면의 $60^{\circ}$ 각도에서 관찰되었다. 3. 위는 우측 $30^{\circ}$ 각도 복-좌배사면과 좌측 $60^{\circ}$ 각도 배-우복사면에서 가스가 존재할 때 특히 잘 관찰되었다. 4. 결장은 수평면의 $30^{\circ}$ 각도 이상에서는 자세히 관찰되었다. 5. 비장은 복배면과 우측 $60^{\circ}$ 복-좌배사면사이와 배복면과 좌-우외측면 사이의 각도에서 잘 관찰되었다. 6. 신장의 배쪽면과 등쪽면의 경우 수평면의 $30^{\circ}$ 각도에서 가장 잘 관찰되었다. 7. 이상의 결과를 종합해 볼 때 본 연구의 결과는 고양이 각 장기의 이상유무 분석에 유용하게 사용될 것으로 판단되었다.

  • PDF

자기상보 원리를 이용한 UAV 탑재용 초광대역 반파장 루프 안테나 (A Ultra-wide Band Half-wavelength Loop Antenna using Self-complementary Principle for UAV Applications)

  • 윤명한;김준원;우종명
    • 한국인터넷방송통신학회논문지
    • /
    • 제15권2호
    • /
    • pp.213-219
    • /
    • 2015
  • 본 논문에서는 무인 항공기에 장착 가능한 초광대역 반파장 루프 안테나를 설계하였다. 설계된 안테나는 야구공 모양에 자기상보 원리(self-complementary principle)를 적용하여 광대역 특성을 얻었다. 또한 저자세로 변형하기 위해 방사체 사이에 접지면을 두어 image theory를 적용하였다. 이렇게 설계된 초광대역 반파장 루프 안테나의 크기는 $0.20{\lambda}_L{\times}0.14{\lambda}_L{\times}0.16{\lambda}_L$ (${\lambda}_L$은 최저주파수의 공기 중 한 파장)이며, -10 dB 대역폭은 50 : 1(0.3 GHz ~15 GHz) 이상으로 측정되었다. 방사패턴은 모든 주파수에서 모노폴 안테나와 유사한 패턴을 가진다. 또한 설계된 안테나를 축소된 UAV(Unmannded Aerial Vehicle)의 동체 배면에 장착하여 그 특성 확인결과 초광대역 특성을 유지하면서, 모든 주파수 대역에서 모노폴 안테나와 유사한 방사패턴을 나타내었다.

LED 조명계를 결합한 캡슐내시경용 초소형 반사굴절식 전방위 광학계의 설계 (Optical Design of a Subminiature Catadioptric Omnidirectional Optical System with an LED Illumination System for a Capsule Endoscope)

  • 문태성;조재흥
    • 한국광학회지
    • /
    • 제32권2호
    • /
    • pp.68-78
    • /
    • 2021
  • 측면 360° 조명을 위한 6개의 LED (light emitting diode)로 구성된 조명계가 부착된 캡슐내시경용 초소형 반사굴절식 전방위 광학계를 설계하고 성능을 평가하였다. 이 광학계의 총 길이, 전장길이, 반화각(HFOV: half field of view), F-수는 각각 14.3 mm, 8.93 mm, 51°~120°, 3.5로 설계되었다. 이 전방위 광학계는 0.1 megapixels의 CMOS (complementary metal-oxide-semiconductor) 센서를 사용하였으며, LED 조명계는 한 개당 0.25 lm의 LED 6개를 사용하여 광축을 따라 놓여 있는 내장의 내벽을 조명하도록 하였다. 이 결과, 최적화 설계된 광학계의 변조전달함수 0.3에서의 공간주파수, 나이퀴스트 주파수인 44 lp/mm와 0.3의 변조전달함수에서 공차에 따른 누적확률, 초점심도는 각각 130 lp/mm, 95%, -0.097 mm~+0.076 mm이다. 또한 광학계의 시야각 범위 내에서 LED 조명계에 의한 광축으로부터 물체거리가 15 mm인 내장의 내벽에서의 시뮬레이션된 조도는 최소 315 lx~최대 725 lx로 내장의 내벽을 촬영할 수 있는 조도와 가시도임을 알 수 있다.

소수의 협소화각 RGBD 영상으로부터 360 RGBD 영상 합성 (360 RGBD Image Synthesis from a Sparse Set of Images with Narrow Field-of-View)

  • 김수지;박인규
    • 방송공학회논문지
    • /
    • 제27권4호
    • /
    • pp.487-498
    • /
    • 2022
  • 깊이 영상은 3차원 공간상의 거리 정보를 2차원 평면에 나타낸 영상이며 다양한 3D 비전 연구에서 유용하게 사용된다. 기존의 많은 깊이 추정 연구는 주로 좁은 FoV (Field of View) 영상을 사용하여 전체 장면 중 상당 부분이 소실된 영상에 대한 깊이 정보를 추정한다. 본 논문에서는 소수의 좁은 FoV 영상으로부터 360° 전 방향 RGBD 영상을 동시에 생성하는 기법을 제안한다. 오버랩 되지 않는 4장의 소수 영상으로부터 전체 파노라마 영상에 대해서 상대적인 FoV를 추정하고 360° 컬러 영상과 깊이 영상을 동시에 생성하는 적대적 생성 신경망 기반의 영상 생성 모델을 제안하였으며, 두 모달리티의 특징을 공유하여 상호 보완된 결과를 확인한다. 또한 360° 영상의 구면 특성을 반영한 네트워크를 구성하여 개선된 성능을 보인다.

지능형 전방위 영상 분석 시스템 제안 및 구현 (Proposal and Implementation of Intelligent Omni-directional Video Analysis System)

  • 전소연;허준학;박구만
    • 방송공학회논문지
    • /
    • 제22권6호
    • /
    • pp.850-853
    • /
    • 2017
  • 본 논문에서는 초광각 카메라를 활용한 전방위 영상 및 객체 추적 결과 영상 표출을 통한 영상 분석 시스템을 제안한다. 구형 전방위 영상 생성을 위해 광각 영상 두 개에서 equirectangular 파노라마 영상으로의 projection 과정을 거쳤고, 구면 좌표계 변환식을 사용하여 구형 영상으로 표출하였다. 객체 추적은 원하는 객체를 초기에 선택하는 방식으로 수행되었으며, equirectangular 영상 내 왜곡으로 인한 객체 형태 변화에도 강인한 객체 추적이 이루어질 수 있도록 KCF(Kernelized Correlation Filter) 알고리즘을 사용하였다. 초기 다이얼로그에서는 파일 및 모드를 선택하고, 이후 새 다이얼로그에서 구형 영상 매핑 수행 결과 영상이 표출되도록 하였으며, 객체 추적 모드를 선택한 경우 새로운 창에서 원하는 영역을 드래그하여 ROI를 설정한 뒤, 이를 매 프레임마다 추적할 수 있도록 하였다.

전 방향 이미지와 디지털 맵을 활용한 3차원 실사 도시모델 생성 기법 연구 (A Study on the Photo-realistic 3D City Modeling Using the Omnidirectional Image and Digital Maps)

  • 김형기;강윤아;한순흥
    • 한국CDE학회논문집
    • /
    • 제19권3호
    • /
    • pp.253-262
    • /
    • 2014
  • 3D city model, which consisted of the 3D building models and their geospatial position and orientation, is becoming a valuable resource in virtual reality, navigation systems, civil engineering, etc. The purpose of this research is to propose the new framework to generate the 3D city model that satisfies visual and physical requirements in ground oriented simulation system. At the same time, the framework should meet the demand of the automatic creation and cost-effectiveness, which facilitates the usability of the proposed approach. To do that, I suggest the framework that leverages the mobile mapping system which automatically gathers high resolution images and supplement sensor information like position and direction of the image. And to resolve the problem from the sensor noise and a large number of the occlusions, the fusion of digital map data will be used. This paper describes the overall framework with major process and the recommended or demanded techniques for each processing step.

어안 렌즈와 레이저 스캐너를 이용한 3차원 전방향 영상 SLAM (3D Omni-directional Vision SLAM using a Fisheye Lens Laser Scanner)

  • 최윤원;최정원;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제21권7호
    • /
    • pp.634-640
    • /
    • 2015
  • This paper proposes a novel three-dimensional mapping algorithm in Omni-Directional Vision SLAM based on a fisheye image and laser scanner data. The performance of SLAM has been improved by various estimation methods, sensors with multiple functions, or sensor fusion. Conventional 3D SLAM approaches which mainly employed RGB-D cameras to obtain depth information are not suitable for mobile robot applications because RGB-D camera system with multiple cameras have a greater size and slow processing time for the calculation of the depth information for omni-directional images. In this paper, we used a fisheye camera installed facing downwards and a two-dimensional laser scanner separate from the camera at a constant distance. We calculated fusion points from the plane coordinates of obstacles obtained by the information of the two-dimensional laser scanner and the outline of obstacles obtained by the omni-directional image sensor that can acquire surround view at the same time. The effectiveness of the proposed method is confirmed through comparison between maps obtained using the proposed algorithm and real maps.

이동 로봇의 자율주행을 위한 전방향 능동거리 센서 (Active omni-directional range sensor for mobile robot navigation)

  • 정인수;조형석
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 1996년도 한국자동제어학술회의논문집(국내학술편); 포항공과대학교, 포항; 24-26 Oct. 1996
    • /
    • pp.824-827
    • /
    • 1996
  • Most autonomous mobile robots view things only in front of them. As a result, they may collide against objects moving from the side or behind. To overcome the problem we have built an Active Omni-directional Range Sensor that can obtain omnidirectional depth data by a laser conic plane and a conic mirror. In the navigation of the mobile robot, the proposed sensor system makes a laser conic plane by rotating the laser point source at high speed and achieves two dimensional depth map, in real time, once an image capture. The experimental results show that the proposed sensor system provides the best potential for navigation of the mobile robot in uncertain environment.

  • PDF

METRO - 레이저 거리계를 장착한 자율 이동로봇 (METRO - A Free Ranging Mobile Robot with a Laser Range Finder)

  • 차영엽;권대갑
    • 제어로봇시스템학회논문지
    • /
    • 제2권3호
    • /
    • pp.200-208
    • /
    • 1996
  • This paper describes the mechanism, guidance, sensor system, and navigation algorithm of METRO, a free ranging mobile robot. METRO is designed for use in structured surroundings or factory environments rather than unstructured natural environments. An overview of the physical configuration of the mobile robot is presented as well as a description of its sensor system, an omnidirectional laser range finder. Except for the global path planning algorithm, a guidance and a navigation algorithm with a local path planning algorithm are used to navigate the mobile robot. In METRO the computer support is divided into a supervisor with image processing and local path planning and a slave with motor control. The free ranging mobile robot is self-controlled and all processing being performed on board.

  • PDF

자율이동로봇MAIRO의 전방향 이미지센서와 스테레오 비전 시스템을 이용한 2차원 지도 생성 (2D Map generation Using Omnidirectional Image sensor and Stereo Vision for MobileRobot MAIRO)

  • 김경호;이형규;손영준;송재근
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2002년도 합동 추계학술대회 논문집 정보 및 제어부문
    • /
    • pp.495-500
    • /
    • 2002
  • Recently, a service robot industry outstands as an up and coming industry of the next generation. Specially, there are so many research in self-steering movement(SSM). In order to implement SSM, robot must effectively recognize all around, detect objects and make a surrounding map with sensors. So, many robots have a sonar and a infrared sensor, etc. But, in these sensors, We only know informations about between the robot and the object as well as resolution faculty is of inferior quality. In this paper, we will introduce new algorithm that recognizes objects around robot and makes a two dimension surrounding map with a omni-direction vision camera and two stereo vision cameras.

  • PDF