• 제목/요약/키워드: fisheye camera

검색결과 53건 처리시간 0.031초

Real-Time Cattle Action Recognition for Estrus Detection

  • Heo, Eui-Ju;Ahn, Sung-Jin;Choi, Kang-Sun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제13권4호
    • /
    • pp.2148-2161
    • /
    • 2019
  • In this paper, we present a real-time cattle action recognition algorithm to detect the estrus phase of cattle from a live video stream. In order to classify cattle movement, specifically, to detect the mounting action, the most observable sign of the estrus phase, a simple yet effective feature description exploiting motion history images (MHI) is designed. By learning the proposed features using the support vector machine framework, various representative cattle actions, such as mounting, walking, tail wagging, and foot stamping, can be recognized robustly in complex scenes. Thanks to low complexity of the proposed action recognition algorithm, multiple cattle in three enclosures can be monitored simultaneously using a single fisheye camera. Through extensive experiments with real video streams, we confirmed that the proposed algorithm outperforms a conventional human action recognition algorithm by 18% in terms of recognition accuracy even with much smaller dimensional feature description.

1200만 화소의 고해상도 360° 전방위 IP 카메라 개발 (Development of 360° Omnidirectional IP Camera with High Resolution of 12Million Pixels)

  • 이희열;이선구;이승호
    • 전기전자학회논문지
    • /
    • 제21권3호
    • /
    • pp.268-271
    • /
    • 2017
  • 본 논문에서는 1200만 화소의 고해상도 $360^{\circ}$ 전방위 IP 카메라의 개발을 제안한다. 제안하는 1200만 화소의 고해상도 $360^{\circ}$ 전방위 IP 카메라는 $360^{\circ}$ 전방위 시야각의 렌즈 부와 1200만 화소 고해상도 IP 카메라 부로 구성된다. $360^{\circ}$ 전방위 시야각의 렌즈 부는 등사영 렌즈 설계방식과 catadioptric 면 제작방식을 적용하여 어안 렌즈에서 필연적으로 발생되고 있는 주변부 왜곡현상이 없는 화상을 얻을 수 있도록 한다. 1200만 화소 고해상도 IP 카메라 부는 CMOS 센서 & ISP 부, DSP 부, I/O 부 등으로 구성하여 카메라에 들어온 영상을 디지털 영상으로 변환하여 영상 왜곡 보정, 영상 보정, 영상 압축 등의 기능 등을 수행한 후에, NVR(Network Video Recorder)에 전송한다. 제안된 1200만 화소의 고해상도 $360^{\circ}$ 전방위 IP 카메라의 성능을 평가하기 위하여 외부시험기관에서 실험한 결과, 1200만 화소의 영상효율, $360^{\circ}$ 전방위 렌즈 화각, 전자파 인증 규격 등이 목표값에 적합하게 측정됨이 확인되었다.

전방위 감시와 영상추적이 가능한 화재감시시스템에 관한 연구 (The Study on the Fire Monitoring Dystem for Full-scale Surveillance and Video Tracking)

  • 백동현
    • 한국화재소방학회논문지
    • /
    • 제32권6호
    • /
    • pp.40-45
    • /
    • 2018
  • 전방위 감시카메라에는 어안렌즈를 이용하여 광대역감시가 가능하도록 물체감지알고리즘으로 물체를 단위별 레벨링한 다음 전방위 감시카메라와 추적(PTZ)카메라로 구성된 시스템으로 연동하여 현장실험한 것이다. 전방위 감시카메라가 움직이는 물체를 정확히 감지하며 사각표시를 하였고 추적카메라와 유기적으로 연동하며 확대 추적하였다. 감지카메라와 화염감지 및 온도에 대한 현장실험에서는 오토스캔 중 화염이 감지되면 멈추며, 해당 화점부분을 화면의 중심부분으로 이동시켜 온도가 표출되었다. 또한 화염이격거리별 검지에 필요한 발열량의 인정기준인 1 km 2,340 kcal를 초과한 1.5 km에서도 가능하였다. 거리에 따른 화염감지성능시험에서는 거리 1 km일 때 폭 56 cm ${\times}$ 높이 90 cm를 초과한 1.5 km에서도 가능하여 산불화재에도 적응성이 충분하였다. 향후 석유 가스비축시설 및 저유소에 설치하면 자체는 물론 주위 화재예방 및 침입감시 등의 안전에 매우 유용할 것으로 기대된다.

Using Omnidirectional Images for Semi-Automatically Generating IndoorGML Data

  • Claridades, Alexis Richard;Lee, Jiyeong;Blanco, Ariel
    • 한국측량학회지
    • /
    • 제36권5호
    • /
    • pp.319-333
    • /
    • 2018
  • As human beings spend more time indoors, and with the growing complexity of indoor spaces, more focus is given to indoor spatial applications and services. 3D topological networks are used for various spatial applications that involve navigation indoors such as emergency evacuation, indoor positioning, and visualization. Manually generating indoor network data is impractical and prone to errors, yet current methods in automation need expensive sensors or datasets that are difficult and expensive to obtain and process. In this research, a methodology for semi-automatically generating a 3D indoor topological model based on IndoorGML (Indoor Geographic Markup Language) is proposed. The concept of Shooting Point is defined to accommodate the usage of omnidirectional images in generating IndoorGML data. Omnidirectional images were captured at selected Shooting Points in the building using a fisheye camera lens and rotator and indoor spaces are then identified using image processing implemented in Python. Relative positions of spaces obtained from CAD (Computer-Assisted Drawing) were used to generate 3D node-relation graphs representing adjacency, connectivity, and accessibility in the study area. Subspacing is performed to more accurately depict large indoor spaces and actual pedestrian movement. Since the images provide very realistic visualization, the topological relationships were used to link them to produce an indoor virtual tour.

경관 특성 파악에 있어서의 시퀀스적 시점장 선정과 전방위 화상정보의 유효성 검증에 관한 연구 (A Study of Selecting Sequential Viewpoint and Examining the Effectiveness of Omni-directional Angle Image Information in Grasping the Characteristics of Landscape)

  • 김홍만;이인희
    • KIEAE Journal
    • /
    • 제9권2호
    • /
    • pp.81-90
    • /
    • 2009
  • Relating to grasping sequential landscape characteristics in consideration of the behavioral characteristics of the subject experiencing visual perception, this study was made on the subject of main walking line section for visitors of three treasures of Buddhist temples. Especially, as a method of obtaining data for grasping sequential visual perception landscape, the researcher employed [momentum sequential viewpoint setup] according to [the interval of pointers arbitrarily] and fisheye-lens-camera photography using the obtained omni-directional angle visual perception information. As a result, in terms of viewpoint selection, factors like approach road form, change in circulation axis, change in the ground surface level, appearance of objects, etc. were verified to make effect, and among these, approach road form and circulation axis change turned out to be the greatest influences. In addition, as a result of reviewing the effectiveness via the subjects, for the sake of qualitative evaluation of landscape components using the VR picture image obtained in the process of acquiring omni-directional angle visual perception information, a positive result over certain values was earned in terms of panoramic vision, scene reproduction, three-dimensional perspective, etc. This convinces us of the possibility to activate the qualitative evaluation of omni-directional angle picture information and the study of landscape through it henceforth.

보정 이미지의 최 근접 좌표를 이용한 실시간 방사 왜곡 보정 하드웨어 설계 (A Hardware Design for Realtime Correction of a Barrel Distortion Using the Nearest Pixels on a Corrected Image)

  • 송남훈;이준환
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권12호
    • /
    • pp.49-60
    • /
    • 2012
  • 본 논문은 보정 이미지에서 최 근접 좌표를 이용한 방사 왜곡 보정 하드웨어 구조를 제안한다. 기존 보간법과는 달리 보정 이미지에서 최근접한 좌표의 거리를 이용하기 때문에 이미지 전체 영역의 화질 향상과 함께 외각영역에서 발생하는 계단 현상을 해결할 수 있다. 그러나 양 선형 보간법을 적용한 기존 구조에서 추가되는 연산으로 인해 하드웨어 크기가 증가한다. 이를 해결하기 위해 룩 업 테이블 구조를 제안하고, 코르딕 알고리즘을 적용한다. Design compiler를 이용하여 합성한 결과 보간법의 모든 과정을 하드웨어로 구현한 구조는 기존 구조에 비해 처리량이 높고, 차량용 후방 카메라의 경우 룩 업 테이블과 하드웨어를 함께 사용한 구조는 모든 과정을 하드웨어로 구현한 구조보다 하드웨어 크기를 10% 줄일 수 있다.

360° 카메라 영상의 효율적인 스티칭 기법에 관한 연구 (A Study on Effective Stitching Technique of 360° Camera Image)

  • 이랑구;정진헌
    • 디지털융복합연구
    • /
    • 제16권2호
    • /
    • pp.335-341
    • /
    • 2018
  • 본 연구는 두 개의 어안렌즈로 구성된 이안식 일체형 $360^{\circ}$ 카메라로 촬영한 영상의 효율적인 스티칭 기법에 관한 연구이다. 먼저, 기본적으로 제공되는 번들 프로그램의 스티칭 결과물의 문제점을 찾아보고, 전문 스티칭 프로그램인 Autopano Video Pro와 Autopano Giga를 사용한 스티칭 결과를 비교 분석하여, 보다 효율적이고 완성도 높은 스티칭 기법을 찾아내는 것에 중점을 두고 연구하였다. 그 결과 번들 프로그램의 문제점으로는 수평과 수직의 왜곡, 노출과 컬러의 불일치, 그리고 매끄럽지 못한 스티칭 라인 등이 나타났으며, Autopano Video Pro와 Autopano Giga의 Automatic Horizon과 Verticals Tool로 수평과 수직을, Levels와 Color 및 Edit Color Anchors로 노출과 컬러를, 그리고 Mask 기능으로 스티칭 라인의 문제를 해결할 수 있었다. 본 연구를 바탕으로 향후 이안식 일체형 $360^{\circ}$ 카메라 촬영 영상의 효율적인 스티칭 기법으로 더욱 완성도 높은 $360^{\circ}$ VR 영상 콘텐츠를 제작할 수 있을 것으로 기대한다.

스케일 불변 특징을 이용한 이동 로봇의 위치 추정 및 매핑 (Mobile Robot Localization and Mapping using Scale-Invariant Features)

  • 이종실;신동범;권오상;이응혁;홍승홍
    • 전기전자학회논문지
    • /
    • 제9권1호
    • /
    • pp.7-18
    • /
    • 2005
  • 로봇이 자율주행을 하는데 있어 중요한 요소는 로봇 스스로 위치를 추정하고 동시에 주위 환경에 대한 지도를 작성하는 것이다 본 논문에서는 스케일 불변 특정을 이용한 비전 기반 위치 추정 및 매핑 알고리즘을 제안한다. 로봇에 어안렌즈가 부착된 카메라를 천정을 바라볼 수 있도록 부착하여 스케일 불변 특정을 갖는 고급의 영상 특정을 구하여 맹 빌딩과 위치 추정을 수행한다. 먼저, 전처리 과정으로 어안렌즈를 통해 입력된 영상을 카메라 보정을 행하여 축방향 왜곡을 제거하고 레이블링과 컨벡스헐을 적용하여 천정영역과 벽영역으로 분할한다 최초 맵 빌딩시에는 분할된 영역에 대해 특정점을 구하고 맵 데이터베이스에 저장한다. 맵 빌딩이 종료될 때까지 연속하여 입력되는 영상에 대해 특정점들을 구하고 이미 작성된 맵과 매칭되는 점들을 찾고 매칭되지 않은 점들에 대해서는 기존의 맴에 추가하는 과정을 반복한다. 위치 추정은 맵 빌딩과정에서 매칭되는 점들을 찾을 때 동시에 수행되어 진다. 그리고 임의의 위치에서 기존의 작성된 맵과 매칭되는 점들을 찾음으로서 위치 추정이 행해지며 동시에 기존의 맵 데이터베이스의 특정점들을 갱신하게 된다. 제안한 방법은 $50m^2$의 영역에 대해 맵 빌딩을 2 분내에 수행할 수 있었으며, 위치의 정확도는 ${\pm}13cm$, 위치에 대한 로봇의 자세(각도)는 ${\pm}3$도의 오차를 갖는다.

  • PDF

효과적인 혼합현실 장면 생성을 위한 고속의 광원 추정 기법 (Fast Light Source Estimation Technique for Effective Synthesis of Mixed Reality Scene)

  • 신승미;서웅;임인성
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제22권3호
    • /
    • pp.89-99
    • /
    • 2016
  • 혼합현실 응용의 제작에 있어 중요한 요소 중의 하나는 현실 세계에서의 주변광 정보를 분석하여 효과적으로 영상 합성에 적용하는 것이다. 특히 대화식 응용을 구현하기 위해서는 동적으로 변화하는 주변광을 실시간 처리를 통하여 빠르게 렌더링 결과에 반영하는 것이 중요하다. 기존의 관련 방법들은 주로 사실적인 영상생성을 목표로 하기 때문에 너무 많은, 예를 들어, 2의 거듭제곱 수로 증가하는, 광원지점을 찾거나 대화식 응용에 적합하지 않은 복잡도를 가져 이에 적용하기가 적합하지 않다. 본 논문에서는 어안 렌즈를 장착한 카메라로부터 실시간으로 입력되는 동영상 이미지를 분석하여 주요 광원을 고속으로 찾아주는 광원 추정 방법을 제안한다. 기존의 방법과는 달리 사용자가 지정한 개수 정도의 주요 광원을 고속을 찾아주어, 퐁의 조명모델 기반의 직접 조명효과 생성뿐만 아니라, 면적 광원에 대한 광원 샘플링을 통한 부드러운 그림자 생성에도 활용할 수 있다.

Monitoring canopy phenology in a deciduous broadleaf forest using the Phenological Eyes Network (PEN)

  • Choi, Jeong-Pil;Kang, Sin-Kyu;Choi, Gwang-Yong;Nasahara, Kenlo Nishda;Motohka, Takeshi;Lim, Jong-Hwan
    • Journal of Ecology and Environment
    • /
    • 제34권2호
    • /
    • pp.149-156
    • /
    • 2011
  • Phenological variables derived from remote sensing are useful in determining the seasonal cycles of ecosystems in a changing climate. Satellite remote sensing imagery is useful for the spatial continuous monitoring of vegetation phenology across broad regions; however, its applications are substantially constrained by atmospheric disturbances such as clouds, dusts, and aerosols. By way of contrast, a tower-based ground remote sensing approach at the canopy level can provide continuous information on canopy phenology at finer spatial and temporal scales, regardless of atmospheric conditions. In this study, a tower-based ground remote sensing system, called the "Phenological Eyes Network (PEN)", which was installed at the Gwangneung Deciduous KoFlux (GDK) flux tower site in Korea was introduced, and daily phenological progressions at the canopy level were assessed using ratios of red, green, and blue (RGB) spectral reflectances obtained by the PEN system. The PEN system at the GDK site consists of an automatic-capturing digital fisheye camera and a hemi-spherical spectroradiometer, and monitors stand canopy phenology on an hourly basis. RGB data analyses conducted between late March and early December in 2009 revealed that the 2G_RB (i.e., 2G - R - B) index was lower than the G/R (i.e., G divided by R) index during the off-growing season, owing to the effects of surface reflectance, including soil and snow effects. The results of comparisons between the daily PEN-obtained RGB ratios and daily moderate-resolution imaging spectroradiometer (MODIS)-driven vegetation indices demonstrate that ground remote sensing data, including the PEN data, can help to improve cloud-contaminated satellite remote sensing imagery.