• 제목/요약/키워드: eye'S image

검색결과 299건 처리시간 0.03초

비행로봇의 항공 영상 온라인 학습을 통한 지상로봇 검출 및 추적 (UGR Detection and Tracking in Aerial Images from UFR for Remote Control)

  • 김승훈;정일균
    • 로봇학회논문지
    • /
    • 제10권2호
    • /
    • pp.104-111
    • /
    • 2015
  • In this paper, we proposed visual information to provide a highly maneuverable system for a tele-operator. The visual information image is bird's eye view from UFR(Unmanned Flying Robot) shows around UGR(Unmanned Ground Robot). We need UGV detection and tracking method for UFR following UGR always. The proposed system uses TLD(Tracking Learning Detection) method to rapidly and robustly estimate the motion of the new detected UGR between consecutive frames. The TLD system trains an on-line UGR detector for the tracked UGR. The proposed system uses the extended Kalman filter in order to enhance the performance of the tracker. As a result, we provided the tele-operator with the visual information for convenient control.

합성곱 신경망을 이용한 Bender Gestalt Test 영상인식 (Bender Gestalt Test Image Recognition with Convolutional Neural Network)

  • 장원두;양영준;최성진
    • 한국멀티미디어학회논문지
    • /
    • 제22권4호
    • /
    • pp.455-462
    • /
    • 2019
  • This paper proposes a method of utilizing convolutional neural network to classify the images of Bender Gestalt Test (BGT), which is a tool to understand and analyze a person's characteristic. The proposed network is composed of 29 layers including 18 convolutional layers and 2 fully connected layers, where the network is to be trained with augmented images. To verify the proposed method, 10 fold validation was adopted. In results, the proposed method classified the images into 9 classes with the mean f1 score of 97.05%, which is 13.71%p higher than a previous method. The analysis of the results shows the classification accuracy of the proposed method is stable over all the patterns as the worst f1 score among all the patterns was 92.11%.

Compact near-eye display for firefighter's self-contained breathing apparatus

  • Ungyeon Yang
    • ETRI Journal
    • /
    • 제45권6호
    • /
    • pp.1046-1055
    • /
    • 2023
  • We introduce a display for virtual-reality (VR) fire training. Firefighters prefer to wear and operate a real breathing apparatus while experiencing full visual immersion in a VR fire space. Thus, we used a thin head-mounted display (HMD) with a light field and folded optical system, aiming to both minimize the volume for integration in front of the face into a breathing apparatus and maintain adequate visibility, including a wide viewing angle and resolution similar to that of commercial displays. We developed the optical system testing modules and prototypes of the integrated breathing apparatus. Through iterative testing, the thickness of the output optical module in front of the eyes was reduced from 50 mm to 60 mm to less than 20 mm while maintaining a viewing angle of 103°. In addition, the resolution and image quality degradation of the light field in the display was mitigated. Hence, we obtained a display with a structure consistent with the needs of firefighters in the field. In future work, we will conduct user evaluation regarding fire scene reproducibility by combining immersive VR fire training and real firefighting equipment.

Design of Off-axis Wide Angle Lens for the Automobile Application

  • Kim, Tae Young;Shin, Min-Ho;Kim, Young-Joo
    • Journal of the Optical Society of Korea
    • /
    • 제17권4호
    • /
    • pp.336-343
    • /
    • 2013
  • Recently various types of driver assistance systems have been used for automobiles. In 2008, the U.S Congress passed a law which required that most cars be equipped with devices to warn objects behind the vehicle. Because of that, market of rear view cameras is expected to rise dramatically. Therefore many suppliers try to provide a wide angle camera for car makers. But a high distortion is caused by the wide angle might result in lower image quality. In order to improve the image quality, normally we use an algorithm to correct a distortion. Though we can improve the distorted image by correction algorithm, we must pay more cost to use it. In this paper, we propose a new optical system reducing a distortion in contrast to a conventional lens without cost. In other words, we can see only an area of interest. That is similar to reducing a field of view. Using a new optical system, we can get a less distorted image. In order to view an area of interest, we introduce an off axis optical system having refractive surfaces and reflective surfaces. In this paper, we describe the results of design and, evaluation of an off axis wide angle compact imaging system. In comparison to conventional wide angle lens, we can get the improvement of MTF, distortion, and lateral color aberrations. And we also can reduce a total cost because we don't need the outer apparatus or bracket to mount on the car.

Estimating vegetation index for outdoor free-range pig production using YOLO

  • Sang-Hyon Oh;Hee-Mun Park;Jin-Hyun Park
    • Journal of Animal Science and Technology
    • /
    • 제65권3호
    • /
    • pp.638-651
    • /
    • 2023
  • The objective of this study was to quantitatively estimate the level of grazing area damage in outdoor free-range pig production using a Unmanned Aerial Vehicles (UAV) with an RGB image sensor. Ten corn field images were captured by a UAV over approximately two weeks, during which gestating sows were allowed to graze freely on the corn field measuring 100 × 50 m2. The images were corrected to a bird's-eye view, and then divided into 32 segments and sequentially inputted into the YOLOv4 detector to detect the corn images according to their condition. The 43 raw training images selected randomly out of 320 segmented images were flipped to create 86 images, and then these images were further augmented by rotating them in 5-degree increments to create a total of 6,192 images. The increased 6,192 images are further augmented by applying three random color transformations to each image, resulting in 24,768 datasets. The occupancy rate of corn in the field was estimated efficiently using You Only Look Once (YOLO). As of the first day of observation (day 2), it was evident that almost all the corn had disappeared by the ninth day. When grazing 20 sows in a 50 × 100 m2 cornfield (250 m2/sow), it appears that the animals should be rotated to other grazing areas to protect the cover crop after at least five days. In agricultural technology, most of the research using machine and deep learning is related to the detection of fruits and pests, and research on other application fields is needed. In addition, large-scale image data collected by experts in the field are required as training data to apply deep learning. If the data required for deep learning is insufficient, a large number of data augmentation is required.

실시간 능동 비전 카메라를 이용한 시선 위치 추적 시스템 (Gaze Detection System using Real-time Active Vision Camera)

  • 박강령
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제30권12호
    • /
    • pp.1228-1238
    • /
    • 2003
  • 이 논문에서는 컴퓨터 시각 인식 방법에 의해 모니터 상에 사용자가 쳐다보고 있는 시선 위치를 파악하기 위한 새롭고 실용적인 방법을 제안한다. 일반적으로 사용자가 모니터 상의 한 위치를 쳐다보기 위해서는 얼굴 및 눈동자를 동시에 움직이는 경향이 있다. 기존의 시선 위치 추적 시스템은 사용자의 얼굴 전체를 취득할 수 있는 단 하나의 광각 카메라 시스템을 주로 많이 이용하였다. 그러나 이러한 경우 영상의 해상도가 많이 떨어져서 사용자의 눈동자 움직임을 정확하게 추적하기 어려운 문제점이 있다. 그러므로 이 논문에서는 광각 카메라(얼굴의 움직임에 의한 시선 위치 추적용) 및 눈 영역을 확대하여 취득하는 협각 카메라(눈동자 움직임에 의한 시선 위치 추적용), 즉 이중 카메라를 이용하여 시선 위치 추적 시스템을 구현하였다. 얼굴의 움직임 시 전체적인 위치가 변화될 눈동자의 움직임을 정확히 추적하기 위해, 협각 카메라에는 광각 카메라로부터 추출된 눈 특징점의 위치를 기반으로 한 자동 초점 및 자동 상하/좌우 회전 기능이 포함되어 있으며, 눈 특징점을 보다 빠르고 정확하게 추출하기 위해 이중 적외선 조명을 사용하였다. 실험 결과, 본 논문에서는 실시간으로 동작하는 시선 위치 추적 시스템을 구현할 수 있었으며, 이때 얼굴 및 눈동자 움직임을 모두 고려하여 계산한 모니터상의 시선 위치 정확도는 약 3.44cm의 최소 자승 에러성능을 나타냈다.

고유특징과 다층 신경망을 이용한 얼굴 영상에서의 눈과 입 영역 자동 추출 (Automatic Extraction of Eye and Mouth Fields from Face Images using MultiLayer Perceptrons and Eigenfeatures)

  • 류연식;오세영
    • 전자공학회논문지CI
    • /
    • 제37권2호
    • /
    • pp.31-43
    • /
    • 2000
  • 본 논문은 얼굴영상에서 눈과 입 부위를 추출하기 위한 알고리즘을 제안하였다. 첫째로, 눈과 입의 에지 이진 화소 집합의 고유 값 (Eigenvalue) 과 고유 벡터 (Eigenvector) 로 부터 추출한 정보들은 눈과 입을 찾기 위한 좋은 특징이 된다. 눈과 입 부위의 긍정적 샘플과 부정적 샘플로부터 추출한 고유 특징들로 다층 신경망을 학습하여 특정 영역이 눈과 입 부위 포함하는 정도를 나타내도록 하였다. 둘째로, 시스템의 강건성 확보를 위해 서로 다른 구조의 단일 MLP를 묶어서 그 결과를 이용하는 Ensemble network 구조를 사용하였다. 두 눈과 입에 각각 별도의 Ensemble network을 사용하였고, 각 Ensemble network내 MLP들의 출력이 최대가 되는 영역의 중심 좌표들을 평균하여 최종 위치를 결정하였다. 셋째로, 특징 정보 추출 검색 영역을 즐기기 위해 얼굴 영상 에지 정보와 눈과 입의 위치 관계를 이용해 눈과 입의 대략적인 영역을 추출하였다. 제안된 시스템은 적은 수의 정면 얼굴에서 추출한 고유 특징들로 학습된 Ensemble network을 사용하여 학습에 사용되지 않은 다른 사람들의 정면얼굴 뿐만 아니라 일정한 범위 내 자세 변화에서도 좋은 일반화 성능을 얻고 있으며, 작은 범위 내에서의 얼굴 크기 변화나 좌우 20°이내의 자세 변화에 대해서도 신경망의 일반화 기능을 이용하여 강건한 결과를 얻고 있음을 확인하였다.

  • PDF

농림위성 활용 수종분류 가능성 평가를 위한 래피드아이 영상 기반 시험 분석 (A Study on Pre-evaluation of Tree Species Classification Possibility of CAS500-4 Using RapidEye Satellite Imageries)

  • 권수경;김경민;임중빈
    • 대한원격탐사학회지
    • /
    • 제37권2호
    • /
    • pp.291-304
    • /
    • 2021
  • 기후변화나 여러 환경문제들로부터 지속 가능한 산림자원 관리 및 모니터링을 위해 임상도의 지속적인 갱신은 필수적이다. 따라서 효율적이고 광역적인 산림 원격탐사의 필요성에 따라 차세대 중형위성 4호의 사업이 확정되어 2023년 발사 예정에 있다. 농림위성(차세대 중형위성 4호)는 5 m급 공간해상도와 Blue, Green, Red, Red Edge, Near Infra Red 총 5개 밴드를 가진다. 본 연구는 농림위성의 발사 및 활용에 앞서 농림위성과 유사한 사양을 가지는 RapidEye를 이용하여 위성 기반 수종분류의 가능성을 모의 평가하기 수행되었다. 본 연구는 춘천 선도산림경영단지를 연구 대상지로 하였으며, RapidEye 위성 영상기반 모의 수종분류는 생육기 영상으로부터 추출한 분광정보와 생육기와 비생육기의 NIR 밴드로부터 추출한 GLCM 질감특성 정보가 활용되었고, 이를 입력데이터로 하여 랜덤 포레스트(Random Forest) 기법을 적용하였다. 본 연구에서는 침엽수종 3종(소나무, 잣나무, 낙엽송), 활엽수종 5종(신갈나무, 굴참나무, 자작나무, 밤나무, 기타활엽수), 침활혼효림 총 9종으로 임상을 분류하였다. 분류 정확도는 임상도와 분류 결과를 대조하여 산출하였으며, 분류 정확도는 분광정보만 사용한 경우 39.41%, 분광정보과 질감정보를 모두 사용한 경우 69.29%의 정확도를 보였으며, 다중시기 분광정보 및 질감정보의 활용을 통해 5 m 해상도의 위성영상으로부터 수종분류의 가능성이 있음을 확인하였다. 향후 식생의 생태적 특성을 더욱 효과적으로 반영한 추가 변수를 대입하여 농림위성 활용 가능성을 제고하고자 한다.

이미지 분석을 통한 매우 유사한 증도가(證道歌) 이본(異本)에 대한 비교연구 - 보물 제758-1호와 보물 제758-2호의 근본적인 차이점 - (Comparative Study on Very Similar Jeungdoga Scripts through Image Analysis - Fundamental Difference between Treasure No. 758-1 and Treasure No. 758-2 -)

  • 유우식;김정곤
    • 보존과학회지
    • /
    • 제37권6호
    • /
    • pp.791-800
    • /
    • 2021
  • 보물로 지정되어 있는 남명천화상송증도가(南明泉和尙頌證道歌)의 삼성본(三省本: 보물 제 758-1호)과 공인본(空印本: 보물 제758-2호)의 사진 이미지를 비교 분석하여 두 판본 간의 차이점을 조사하였다. 공인본의 보물지정 당시인 2012년의 보고서에 따르면 두 개의 판본은 모두 같은 판에서 인출된 것이며 공인본이 삼성본보다 후쇄본으로 추정된다고 한다. 두 개의 판본은 구성, 광곽의 형태, 글자체에 이르기까지 매우 유사하여 육안에 의한 확인만으로는 그 차이를 구별하기 쉽지 않아 전문가들의 주관적의 의견을 수렴하여 결론을 도출한 것으로 추정된다. 본 연구에서는 이미지 분석을 통하여 각각의 판본상에 나타난 인쇄특징을 바탕으로 인출시기의 전후관계 및 동일한 판에서 인쇄된 것인지 아니면 서로 다른 판에서 인쇄된 것인지 판단할 수 있는 근거자료를 수집하여 정리하였다. 면밀한 이미지 비교와 분석의 결과, 삼성본과 공인본은 서로 다른 판에서 인출된 것이며 인출시기도 공인본이 삼성본에 비해서 후쇄본이라는 보고서의 내용도 수긍하기 어렵다는 결론에 도달하였다. 또한 삼성본에서 볼 수 있는 목판인쇄의 특징과는 사뭇 다른 특징들이 관찰되어 공인본의 인출에 사용된 인쇄기술 및 인출시기에 관한 추가조사 및 후속연구가 필요할 것으로 보인다.

영상 인식 및 생체 신호를 이용한 운전자 졸음 감지 시스템 (Driver Drowsiness Detection System using Image Recognition and Bio-signals)

  • 이민혜;신성윤
    • 한국정보통신학회논문지
    • /
    • 제26권6호
    • /
    • pp.859-864
    • /
    • 2022
  • 매년 교통사고의 가장 큰 원인으로 손꼽히는 졸음운전은 운전자의 수면 부족, 산소 부족, 긴장감의 저하, 신체의 피로 등과 같은 다양한 요인을 동반한다. 졸음 유무를 확인하는 일반적인 방법으로 운전자의 표정과 주행패턴을 파악하는 방법, 심전도, 산소포화도, 뇌파와 같은 생체신호를 분석하는 방법들이 연구되고 있다. 본 논문은 영상을 검출하는 딥러닝 모델과 생체 신호 측정 기술을 이용한 운전자 피로 감지 시스템을 제안한다. 제안 방법은 일차적으로 딥러닝을 이용하여 운전자의 눈 모양과 하품 유무, 졸음으로 예상되는 신체 동작을 파악하여 졸음 상태를 감지한다. 이차적으로 맥파 신호와 체온을 이용하여 운전자의 피로 상태를 파악하여 시스템의 정확도를 높이도록 설계하였다. 실험 결과, 실시간 영상에서 운전자의 졸음 유무 판별이 안정적으로 가능하였으며 각성상태와 졸음 상태에서의 분당 심박수와 체온을 비교하여 본 연구의 타당성을 확인할 수 있었다.