• 제목/요약/키워드: Object Recognition Technology

검색결과 470건 처리시간 0.024초

야간운항 중 공항 주변 대형 조명시설에 의한 조종사와 관제사의 시각장애현상에 대한 연구 (A Study on the Visual Impairment of Pilots and Controllers caused by Large Lighting Facilities around Airports during Nighttime Flight Operation)

  • 전종진;이현승
    • 한국항행학회논문지
    • /
    • 제25권6호
    • /
    • pp.466-475
    • /
    • 2021
  • 공항 관련 법률에서는 공항 주변에 항공등화의 식별을 방해하거나 조종사와 관제사에게 눈부심을 일으키는 조명의 설치를 제한하도록 하고 있다. 그러나 조명이 조종사 또는 관제사에게 주는 눈부심에 대해서는 정성적인 판단에 기초하여 제한여부를 판단할 뿐, 정량적인 검토는 이루어지지 않고 있다. 이에 이 연구에서는 야간운항 중 공항 주변 대형 조명시설에 의해 조종사와 관제사에게 발생될 수 있는 시각장애현상을 불능글레어와 사물인지도 및 식별방해도를 통해 정량적으로 계산하고 확인하였다. 그리고 이를 바탕으로 조명시설에 의한 조종사와 관제사의 시각장애현상을 방지하기 위해 관련 제도의 보완 등을 제언하였다.

피로 검출을 위한 능동적 얼굴 추적 (Active Facial Tracking for Fatigue Detection)

  • 김태우;강용석
    • 한국정보전자통신기술학회논문지
    • /
    • 제2권3호
    • /
    • pp.53-60
    • /
    • 2009
  • 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 운전자의 피로 상태를 검출하기 위한 얼굴 표정 인식을 위해 얼굴 특징을 추적하고자 하였다. 그러나 대다수의 얼굴 특징 추적 방법은 다양한 조명 조건과 얼굴 움직임, 회전등으로 얼굴의 특징점이 검출하지 못하는 경우가 발생한다. 본 논문에서는 얼굴 특징을 추출하는 새로운 능동적 방식을 제안하고자 한다. 제안된 방법은 우선, 능동적 적외선 감지기를 사용하여 다양한 조명 조건하에서 동공을 검출하고, 검출된 동공은 얼굴 움직임을 예측하는데 사용되어진다. 얼굴 움직임에 따라 특징이 국부적으로 부드럽게 변화한다고 할 때, 칼만 필터로 얼굴 특징을 추적할 수 있다. 제한된 동공 위치와 칼만 필터를 동시에 사용함으로 각각의 특징 지점을 정확하게 예상할 수 있었고, Gabor 공간에서 예측 지점에 인접한 지점을 특징으로 추적할 수 있다. 패턴은 검출된 특징에서 공간적 연관성에서 추출한 특징들로 구성된다. 실험을 통하여 다양한 조명과 얼굴 방향, 표정 하에서 제안된 능동적 방법의 얼굴 추적의 실효성을 입증하였다.

  • PDF

지역적 밝기 변화에 강인한 물체 인식을 위한 지역 서술자와 엔트로피 기반 유사도 척도에 관한 연구 (A study on a local descriptor and entropy-based similarity measure for object recognition system being robust to local illumination change)

  • 양정은;양승용;홍석근;조석제
    • Journal of Advanced Marine Engineering and Technology
    • /
    • 제38권9호
    • /
    • pp.1112-1118
    • /
    • 2014
  • 본 논문에서는 지역적인 밝기 변화에 강인한 지역 서술자와 유사도 척도를 제안한다. 제안한 지역 서술자는 Haar 웨이블렛 필터를 이용하여 특징점과 주변의 주파수 특성을 포함한 지역 서술자를 정의하여 지역적으로 불균일한 조명의 영향에도 특징점을 명확히 서술할 수 있다. 제안한 유사도 척도는 기존의 엔트로피 기반의 유사도에 지역 서술자로 계산한 유사도를 결합한 형태이다. 이는 지역적인 조명의 변화가 발생한 영역의 유사도를 정확히 반영할 수 있다. 실험을 통해 제안한 방법의 성능을 검증하였다.

딥러닝 및 증강현실을 이용한 재난대응 역량 강화를 위한 네트워크 자원 확보 방안 (Deployment of Network Resources for Enhancement of Disaster Response Capabilities with Deep Learning and Augmented Reality)

  • 신영환;윤주식;서순호;정종문
    • 인터넷정보학회논문지
    • /
    • 제18권5호
    • /
    • pp.69-77
    • /
    • 2017
  • 본 논문에서는 재난상황에서 딥러닝과 증강현실 기술을 활용한 재난대응 방안과 그에 따른 네트워크 자원 확보 방안을 제안한다. 딥러닝과 증강현실 기술의 특징과 현황을 파악하고, 재난분야와의 연관성에 관하여 설명한다. 딥러닝 기술을 사용하여 재난 상황을 정확하게 인지하고 관련 재난 정보를 증강현실로 구현하여 재난대응 현장 및 통합지원본부, 재난안전대책본부 등에 제공함으로써 재난대응 역량을 강화할 수 있다. 각종 재난사례 중 화재상황을 중점으로, 딥러닝 기반 화재상황 인식 및 증강현실 정보제공을 통해 효과적으로 재난대응 역량을 강화할 수 있는 방안을 제시한다. 마지막으로, 본 논문의 재난대응 방안을 활용하기 위한 네트워크 자원 확보 기법을 제시한다.

시각장애인을 위한 딥러닝기반 심볼인식 (Deep learning based symbol recognition for the visually impaired)

  • 박상헌;전태재;김상혁;이상윤;김주완
    • 한국정보전자통신기술학회논문지
    • /
    • 제9권3호
    • /
    • pp.249-256
    • /
    • 2016
  • 최근 시각장애인 및 교통약자의 자유로운 보행을 보장하기 위한 많은 기술들이 연구되고 있다. 자유로운 보행을 위한 장치로는 영상카메라, 초음파센서 및 가속도 센서 등을 이용하는 스마트 지팡이와 스마트 안경 관련 기술이 있다. 대표적인 기술로는 물체를 식별하여 장애물을 검출하고 보행 가능 영역을 추출하는 기술, 랜드마크 심볼 정보를 인식하여 주위 환경 정보를 주는 기술 등 여러 가지 기술이 개발되고 있다. 본 논문에서는 시각장애인에게 필요한 시설의 대표 심볼을 선정하여 착용한 영상 장치의 정보로부터 심볼을 인식하는 알고리즘을 딥러닝 기술을 이용하여 연구하였다. 그 결과로 딥러닝 영상처리 분야에서 사용되는 CNN(Convolutional Neural Network)기법을 사용하여 서로 다른 딥러닝 구조를 실험을 통하여 비교하고 분석하였다.

LGP-FL과 해마 구조를 이용한 H-CNN 기반 보행자 검출에 대한 연구 (A Study on H-CNN Based Pedestrian Detection Using LGP-FL and Hippocampal Structure)

  • 박수빈;강대성
    • 한국정보기술학회논문지
    • /
    • 제16권12호
    • /
    • pp.75-83
    • /
    • 2018
  • 최근 자율 주행 자동차에 대한 연구가 활발하다. 자율 주행 자동차는 보행자 검출 및 인식 기술이 중요하다. 최근에 주로 사용되는 CNN(Convolutional Neural Network)을 이용한 보행자 검출은 대체로 좋은 성능을 보이나 영상의 환경에 따른 성능 저하가 있다. 본 논문에서는 LGP-FL(Local Gradient Pattern-Feature Layer)을 추가한 CNN Network를 기반으로 해마 신경망의 장기 기억 구조를 적용한 보행자 검출 시스템을 제안한다. 먼저 입력 이미지를 $227{\times}227$의 크기로 변경한다. 그 후 총 5개 층의 Convolution layer를 거쳐 특징을 추출한다. 그 과정에서 추가되는 LGP-FL에서는 LGP 특징 패턴을 추출하여 출현 빈도수가 높은 패턴을 장기 기억 장치에 저장한다. 이후 검출 과정에서 밝기 및 색상 변화에 강인한 LGP 특징 패턴 정보를 이용해 검출함으로써 보다 정확하게 보행자를 검출할 수 있다. 기존의 방법들과 제안하는 기법의 비교를 통해 약 1~4%의 검출률 증가를 확인하였다.

유아 상상력을 위한 연상 인터렉티브 놀이 콘텐츠 (Associative Interactive play Contents for Infant Imagination)

  • 장은정;임찬
    • 문화기술의 융합
    • /
    • 제5권1호
    • /
    • pp.371-376
    • /
    • 2019
  • 창조적 사고는 언어로 표현되기 전부터 나타나며, 논리학이나 언어학법칙이 작동하기 전에 감정과 직관, 이미지와 몸의 느낌을 통해 그 존재를 드러낸다. 본 연구에서는 레고 놀이를 이미지 표현 방식으로, 이미지 프로세싱 기법을 중심으로 컴퓨터 비전을 응용한 실험적인 유아 참여형 인터렉티브 콘텐츠를 제시하고자 한다. 특히 유아의 경우 손의 소 근육 발달과 상상력을 실재로 구현하는 것은 매우 중요한 창조의 과정이다. 사물인식으로 대표되는 이미지 프로세싱 기술의 지각변동 속에서 'OpenCV 라이브러리'의 분석 알고리즘과 그것을 'Node'로써 구현한 'VVVV'로 이미지 프로세싱을 진행하고, 웹캠을 이용하여 물체를 촬영하고, 인식하고, 해당 분석에 맞는 결과를 도출해 내어 사용자가 참여함으로 완성되는 인터렉티브 콘텐츠를 제작하는 것을 목표로 한다. 연구를 통해서 아이들이 만든 레고가 어떤 작품인지 알 수 있고, 아이들은 스스로 무언가를 만들며 창의성을 기를 수 있다. 나아가, 더 많은 데이터를 기반으로 다양하고 개성적인 사람의 사고를 유추할 수 있을 것이라 기대한다.

실내 비행용 소형 충돌회피 멀티콥터 시스템 개발 (Development of small multi-copter system for indoor collision avoidance flight)

  • 문정호
    • 항공우주시스템공학회지
    • /
    • 제15권1호
    • /
    • pp.102-110
    • /
    • 2021
  • 최근 멀티콥터는 비행 안정성 향상을 위해 다양한 충돌회피 센서를 탑재하고 있다. LiDAR를 이용해 3차원 위치를 인식하거나 다수 카메라와 실시간 SLAM 기술을 이용해 장애물과의 상대 위치를 계산하기도 한다. 또한 소형 프로세스와 카메라로 구성된 3D 깊이 센서를 사용하기도 한다. 본 연구에서는 충돌회피 소프트웨어 기술 개발을 위한 플랫폼으로써 상용 부품을 활용해 실내 비행이 가능한 소형 충돌회피 멀티콥터 시스템을 개발하였다. 멀티콥터 시스템은 LiDAR, RealSense, GPU 보드를 탑재하였고, 비행시험을 통해 YOLO 알고리즘 기반의 사물 인식 및 충돌회피 기능을 검증하였다. 이 논문에서는 시스템 설계/제작 및 탑재 장비 선정과정, 비행시험 결과에 관해 기술하였다.

딥러닝을 이용한 마스크 착용 여부 검사 시스템 (Mask Wearing Detection System using Deep Learning)

  • 남충현;남은정;장경식
    • 한국정보통신학회논문지
    • /
    • 제25권1호
    • /
    • pp.44-49
    • /
    • 2021
  • 최근 COVID-19로 인해 마스크 착용 여부 자동 검사 시스템에 신경망 기술들을 적용하는 연구가 활발히 진행되고 있다. 신경망 적용 방식에 있어서 1단계 검출 방식 또는 2단계 검출 방식을 사용하며, 데이터를 충분히 확보할 수 없는 경우 사전 학습된 신경망에 대해 가중치 미세 조절 기법을 적용하여 학습한다. 본 논문에서는 얼굴 인식부와 마스크 검출부로 구성되는 2단계 검출 방식을 적용하였으며, 얼굴 인식부에는 MTCNN 모델, 마스크 검출부에는 ResNet 모델을 사용하였다. 마스크 검출부는 다양한 실 상황에서의 인식률과 추론 속도 향상을 위하여 5개의 ResNet모델을 적용하여 실험하였다. 학습 데이터는 웹 크롤러를 이용하여 수집한 17,219개의 정지 영상을 이용하였으며, 1,913개의 정지 영상과 1분 동영상 2개에 대해 각각 추론을 실시하였다. 실험 결과 정지 영상인 경우 96.39%, 동영상인 경우 92.98%의 높은 정확도를 보였고, 동영상 추론 속도는 10.78fps임을 확인하였다.

Bioimage Analyses Using Artificial Intelligence and Future Ecological Research and Education Prospects: A Case Study of the Cichlid Fishes from Lake Malawi Using Deep Learning

  • Joo, Deokjin;You, Jungmin;Won, Yong-Jin
    • Proceedings of the National Institute of Ecology of the Republic of Korea
    • /
    • 제3권2호
    • /
    • pp.67-72
    • /
    • 2022
  • Ecological research relies on the interpretation of large amounts of visual data obtained from extensive wildlife surveys, but such large-scale image interpretation is costly and time-consuming. Using an artificial intelligence (AI) machine learning model, especially convolution neural networks (CNN), it is possible to streamline these manual tasks on image information and to protect wildlife and record and predict behavior. Ecological research using deep-learning-based object recognition technology includes various research purposes such as identifying, detecting, and identifying species of wild animals, and identification of the location of poachers in real-time. These advances in the application of AI technology can enable efficient management of endangered wildlife, animal detection in various environments, and real-time analysis of image information collected by unmanned aerial vehicles. Furthermore, the need for school education and social use on biodiversity and environmental issues using AI is raised. School education and citizen science related to ecological activities using AI technology can enhance environmental awareness, and strengthen more knowledge and problem-solving skills in science and research processes. Under these prospects, in this paper, we compare the results of our early 2013 study, which automatically identified African cichlid fish species using photographic data of them, with the results of reanalysis by CNN deep learning method. By using PyTorch and PyTorch Lightning frameworks, we achieve an accuracy of 82.54% and an F1-score of 0.77 with minimal programming and data preprocessing effort. This is a significant improvement over the previous our machine learning methods, which required heavy feature engineering costs and had 78% accuracy.