• 제목/요약/키워드: Wide FOV

검색결과 52건 처리시간 0.025초

SEOUL NATIONAL UNIVERSITY CAMERA II (SNUCAM-II): THE NEW SED CAMERA FOR THE LEE SANG GAK TELESCOPE (LSGT)

  • Choi, Changsu;Im, Myungshin
    • 천문학회지
    • /
    • 제50권3호
    • /
    • pp.71-78
    • /
    • 2017
  • We present the characteristics and the performance of the new CCD camera system, SNUCAM-II (Seoul National University CAMera system II) that was installed on the Lee Sang Gak Telescope (LSGT) at the Siding Spring Observatory in 2016. SNUCAM-II consists of a deep depletion chip covering a wide wavelength from $0.3{\mu}m$ to $1.1{\mu}m$ with high sensitivity (QE at > 80% over 0.4 to $0.9{\mu}m$). It is equipped with the SDSS ugriz filters and 13 medium band width (50 nm) filters, enabling us to study spectral energy distributions (SEDs) of diverse objects from extragalactic sources to solar system objects. On LSGT, SNUCAM-II offers $15.7{\times}15.7$ arcmin field-of-view (FOV) at a pixel scale of 0.92 arcsec and a limiting magnitude of g = 19.91 AB mag and z=18.20 AB mag at $5{\sigma}$ with 180 sec exposure time for point source detection.

천장 조명을 이용한 점 패턴 매칭 기반의 광역적인 위치 추정 (Point Pattern Matching Based Global Localization using Ceiling Vision)

  • 강민태;성창훈;노현철;정명진
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2011년도 제42회 하계학술대회
    • /
    • pp.1934-1935
    • /
    • 2011
  • In order for a service robot to perform several tasks, basically autonomous navigation technique such as localization, mapping, and path planning is required. The localization (estimation robot's pose) is fundamental ability for service robot to navigate autonomously. In this paper, we propose a new system for point pattern matching based visual global localization using spot lightings in ceiling. The proposed algorithm us suitable for system that demands high accuracy and fast update rate such a guide robot in the exhibition. A single camera looking upward direction (called ceiling vision system) is mounted on the head of the mobile robot and image features such as lightings are detected and tracked through the image sequence. For detecting more spot lightings, we choose wide FOV lens, and inevitably there is serious image distortion. But by applying correction calculation only for the position of spot lightings not whole image pixels, we can decrease the processing time. And then using point pattern matching and least square estimation, finally we can get the precise position and orientation of the mobile robot. Experimental results demonstrate the accuracy and update rate of the proposed algorithm in real environments.

  • PDF

Mirrors and Optomechanical Structures Design and Analysis for Linear Astigma-tism Free Three Mirror System (LAF-TMS)

  • Park, Woojin;Hammar, Arvid;Lee, Sunwoo;Chang, Seunghyuk;Kim, Sanghyuk;Jeong, Byeongjoon;Kim, Geon Hee;Kim, Daewook;Pak, Soojong
    • 천문학회보
    • /
    • 제43권2호
    • /
    • pp.55.4-56
    • /
    • 2018
  • Linear Astigmatism Free - Three Mirror System (LAF-TMS) is the linear astigmatism free off-axis wide field telescope with D = 150 mm, F/3.3, and $FOV=5.51^{\circ}{\times}4.13^{\circ}$. We report the design and analysis results of its mirrors and optomechanical structures. Tolerance allowance has been analyzed to the minimum mechanical tolerance of ${\pm}0.05mm$ that is reasonable tolerance for fabrication and optical alignment. The aluminum mirrors are designed with mounting flexure features for the strain-free mounting. From Finite Element Analysis (FEA) results of mounting torque and self-weight, we expect 33 - 80 nm RMS mirror surface deformations. Shims and the L-bracket are mounted between mirrors and the mirror mount for optical alignment. The mirror mount is designed with four light-weighted mechanical parts. It can stably and accurately fix mirrors, and it also suppresses some of stray light.

  • PDF

Robust pupil detection and gaze tracking under occlusion of eyes

  • Lee, Gyung-Ju;Kim, Jin-Suh;Kim, Gye-Young
    • 한국컴퓨터정보학회논문지
    • /
    • 제21권10호
    • /
    • pp.11-19
    • /
    • 2016
  • The size of a display is large, The form becoming various of that do not apply to previous methods of gaze tracking and if setup gaze-track-camera above display, can solve the problem of size or height of display. However, This method can not use of infrared illumination information of reflected cornea using previous methods. In this paper, Robust pupil detecting method for eye's occlusion, corner point of inner eye and center of pupil, and using the face pose information proposes a method for calculating the simply position of the gaze. In the proposed method, capture the frame for gaze tracking that according to position of person transform camera mode of wide or narrow angle. If detect the face exist in field of view(FOV) in wide mode of camera, transform narrow mode of camera calculating position of face. The frame captured in narrow mode of camera include gaze direction information of person in long distance. The method for calculating the gaze direction consist of face pose estimation and gaze direction calculating step. Face pose estimation is estimated by mapping between feature point of detected face and 3D model. To calculate gaze direction the first, perform ellipse detect using splitting from iris edge information of pupil and if occlusion of pupil, estimate position of pupil with deformable template. Then using center of pupil and corner point of inner eye, face pose information calculate gaze position at display. In the experiment, proposed gaze tracking algorithm in this paper solve the constraints that form of a display, to calculate effectively gaze direction of person in the long distance using single camera, demonstrate in experiments by distance.

조리개 위치 변경을 통한 비축 삼반사 망원경 광학계의 성능 및 민감도 개선 연구 (A Study on Performance and Sensitivity Improvement of an Off-axis TMA Telescope Optical System by Changing the Aperture-stop Position)

  • 이한율;전원균;이상민;김기환;서현주;박승한;정미숙
    • 한국광학회지
    • /
    • 제32권1호
    • /
    • pp.9-14
    • /
    • 2021
  • 본 논문에서는 인공위성용 비축 삼반사 망원경의 조리개 위치에 따른 광학계 연구를 진행하였다. 인공위성 광학 탑재체로 주로 사용되는 비축 삼반사 망원경은 높은 해상도와 넓은 화각을 가져야 한다. 또한, 광학계가 구조적으로 비축상에 위치하여 조립이 어려우므로 넓은 공차범위를 가져야 한다. 그러나 조리개의 위치 선정에 따라 광학계의 성능 차이 이외에도 민감도의 차이가 있어, 사용 목적에 따른 적합한 조리개의 위치 선정이 중요하다. 따라서 본 논문에서는 조리개 위치가 각각 다른 비축 삼반사 망원경을 설계하고 성능 및 민감도 분석을 진행하여 적합한 조리개의 위치를 제시하였다.

파노라마 동영상 스트리밍을 위한 적응적 스트립 압축 기법 (Adaptive Strip Compression for Panorama Video Streaming)

  • 김보연;장경호;구상옥;정순기
    • 한국정보과학회논문지:시스템및이론
    • /
    • 제33권1_2호
    • /
    • pp.137-146
    • /
    • 2006
  • 일반적인 동영상 스트리밍 시스템은 좁은 시각영역을 갖는 동영상을 원격의 사용자에게 제공한다. 서버 측에 팬/틸트(pan/tilt) 카메라를 부착한 시스템은 클라이언트가 카메라의 방향을 조작할 수 있도록 함으로써 보다 넓은 시각영역을 제공할 수 있다. 하지만, 하드웨어 팬/틸트 카메라를 이용한 스트리밍 시스템은 다수의 사용자가 동시에 접속할 경우, 모든 사용자에게 각자가 원하는 시점에서의 영상을 제공할 수 없으며, 카메라 이동에 의한 지연이 발생한다는 단점이 있다. 본 논문에서는 소프트웨어 팬/틸트 카메라를 구현하였으며, 이를 이용한 새로운 파노라마 동영상 스트리밍 시스템을 제안한다. 제안된 시스템은 넓은 시각영역을 가지는 파노라마 영상을 획득한 후, 각 사용자에게 원하는 부분영상을 제공함으로써 다수의 사용자에게 자유로운 시점 이동을 제공해 준다. 이때, 방대한 양의 파노라마 동영상을 원격의 사용자에게 전송하기 위해서는 효율적인 압축 방법이 요구된다. 본 논문에서는 전체 영상을 좁은 스트립 영상들로 분할하고, 클라이언트 측에서 원하는 시각영역에 해당하는 스트립 영상들만을 독립적으로 압축하는 적응성 스트립 압축 기법을 제안한다. 제안된 시스템은 적응성 스트립 압축 기법을 사용하여 파노라마 동영상을 압축, 전송함으로써 사용자의 시각영역 변화 및 새로운 사용자의 접속에 빠르게 대응할 수 있으며 클라이언트 전송 시 데이터 양을 효과적으로 감소시킬 수 있다.

A NEW AUTO-GUIDING SYSTEM FOR CQUEAN

  • CHOI, NAHYUN;PARK, WON-KEE;LEE, HYE-IN;JI, TAE-GEUN;JEON, YISEUL;IM, MYUNGSHI;PAK, SOOJONG
    • 천문학회지
    • /
    • 제48권3호
    • /
    • pp.177-185
    • /
    • 2015
  • We develop a new auto-guiding system for the Camera for QUasars in the EArly uNiverse (CQUEAN). CQUEAN is an optical CCD camera system attached to the 2.1-m Otto-Struve Telescope (OST) at McDonald Observatory, USA. The new auto-guiding system differs from the original one in the following: instead of the cassegrain focus of the OST, it is attached to the finder scope; it has its own filter system for observation of bright targets; and it is controlled with the CQUEAN Auto-guiding Package, a newly developed auto-guiding program. Finder scope commands a very wide field of view at the expense of poorer light gathering power than that of the OST. Based on the star count data and the limiting magnitude of the system, we estimate there are more than 5.9 observable stars with a single FOV using the new auto-guiding CCD camera. An adapter is made to attach the system to the finder scope. The new auto-guiding system successfully guided the OST to obtain science data with CQUEAN during the test run in 2014 February. The FWHM and ellipticity distributions of stellar profiles on CQUEAN, images guided with the new auto-guiding system, indicate similar guiding capabilities with the original auto-guiding system but with slightly poorer guiding performance at longer exposures, as indicated by the position angle distribution. We conclude that the new auto-guiding system has overall similar guiding performance to the original system. The new auto-guiding system will be used for the second generation CQUEAN, but it can be used for other cassegrain instruments of the OST.

스티칭 영상의 객관적 영상화질의 평가 방법 (Objective Quality Assessment Method for Stitched Images)

  • 미어 사데크 빌라흐;안희준
    • 방송공학회논문지
    • /
    • 제23권2호
    • /
    • pp.227-234
    • /
    • 2018
  • 이미지 스티칭 기술은 일반 카메라로부터 촬영된 영상을 파노라마와 같이 넓은 화각(Field of View)으로 만들어주는 기술이다. 약 20년정도 연구되어 왔으며, 최근에 특히 상용화 시스템들이 소개되고 있다. 그러나, 많은 제안 된 알고리즘에도 불구하고 객관적인 품질 평가 방법이 개발되지 않았으므로 알고리즘의 비교는 거의 주관적인 방식으로 만 수행되었다. 이 논문은 스티칭 또는 뒤틀린 이미지의 기하학적 및 광도 측정 왜곡을 평가하기위한 Delaunay 삼각분할방식을 사용하여 객관적 평가 방법을 제안한다. 기준 이미지와 대상 이미지는 두 이미지 사이의 일치 지점을 기반으로 하는 델라 네이 - 삼각 측량에 의해 세그먼트 화되고, 평균 유클리드 거리가 기하학적 왜곡 측정에 사용되며, 측광 측정을 위한 PSNR의 평균 또는 막대 그래프가 사용됩니다. 우리는 몇 가지 테스트 이미지와 스티칭 방법을 통해 예비 결과를 보여줌으로써 이점과 적용을 입증한다.

파노라마 영상에서 효율적인 시점탐색을 위한 시공간 비디오 스트림 예측 필터 설계 방법에 관한 연구 (The Design of Spatial-Temporal Prediction Filter for saving resources on the view navigation of a panoramic video service)

  • 석주명;조용우
    • 한국항행학회논문지
    • /
    • 제17권6호
    • /
    • pp.757-764
    • /
    • 2013
  • 사람의 시야각 이상으로 넓게 영상을 채워줌으로써 현장감을 제공하는 파노라마 영상은 넓은 해상도로 인하여 제한된 재생환경과 대역폭의 한계로 파노라마 영상의 넓은 시점을 한 번에 보기 어렵기 때문에 사용자가 시점을 선택하여 시청하는 방법이 필요로 한다. 그러나 시청시점을 선택하기 위해 빈번하게 사용하는 시점탐색 시에 재생하지 않는 시점의 영상데이터까지 전송함에 따라 발생하는 자원낭비를 최소화하기 위하여 본 논문에서는 시점탐색 시 필요한 영상데이터만 전송할 수 있도록 시점탐색 방향과 속도에 기반한 시공간예측 필터방법을 제안한다. 본 제안방법으로 높은 대역폭 사용이 불가피한 인터랙티브 파노라마 영상 스트리밍 서비스에 있어 기존 대비 6%에서 37% 정도의 대역폭 사용을 줄일 수 있다.

다수의 영상간 효율적인 스티칭을 위한 카메라 센서 정보 기반 영상 그룹핑 기술 (Images Grouping Technology based on Camera Sensors for Efficient Stitching of Multiple Images)

  • 임지헌;이의상;김회정;김규헌
    • 방송공학회논문지
    • /
    • 제22권6호
    • /
    • pp.713-723
    • /
    • 2017
  • 파노라마 영상은 카메라 시야각의 제한을 극복하여 넓은 시야를 가질 수 있으므로 컴퓨터 비전, 스테레오 카메라 등의 분야에서 효율적으로 연구되고 있다. 파노라마 영상을 생성하기 위해서는 왜곡이 생기는 광각 카메라를 사용하는 대신 다수의 일반 카메라로 촬영한 영상들을 스티칭 하는 것이 영상의 왜곡 현상을 줄일 수 있기에 많이 활용되어지고 있다. 영상 스티칭 기술은 여러 영상에서 추출한 특징점의 디스크립터를 생성하고, 특징점들 간의 유사도를 비교하여 영상들을 이어 붙여 큰 하나의 영상으로 만드는 것이다. 각각의 특징점은 수십 수백차원의 정보를 가지고 있고, 스티칭 할 영상이 많아질수록 데이터 처리 시간이 증가하게 된다. 특히, 하나의 객체에 대하여 다수의 불특정 카메라에 의해 촬영한 영상들을 기반으로 파노라마를 생성할 경우, 유사한 영상들에 대한 중복적 특징점 추출의 과정을 거치기에 그 처리 시간은 더욱 증가한다. 본 논문에서는 이와 같이, 하나의 객체 또는 환경에 대하여 불특정 다수의 카메라에서 획득한 영상을 기반으로 스티칭을 효율적으로 처리하기 위한 전처리 과정을 제안한다. 그 방법으로 카메라 센서 정보를 기반으로 영상들을 미리 그룹화 하여 한 번에 스티칭 할 영상의 수를 줄임으로써 데이터 처리 시간을 줄일 수 있다. 후에 계층적으로 스티칭 하여 하나의 큰 파노라마를 만든다. 본 논문에서 제안한 그룹핑 전처리를 통해 다수의 영상을 대상으로 한 스티칭 시간이 대폭 감소하는 것을 실험 결과를 통해 검증하였다.