• 제목/요약/키워드: 학습영상

검색결과 2,567건 처리시간 0.024초

딥러닝 기반 불량노면 객체 인식 모델 개발 (Development of an abnormal road object recognition model based on deep learning)

  • 최미형;우제승;홍순기;박준모
    • 융합신호처리학회논문지
    • /
    • 제22권4호
    • /
    • pp.149-155
    • /
    • 2021
  • 본 연구에서는 전동 이동기기를 이용하는 교통약자의 이동을 제한하는 노면 불량 요소를 딥러닝을 이용해 자동 검출하는 불량 노면객체 인식모델을 개발하고자 한다. 이를 위하여 부산시 관내 5개 지역에서 실제 전동 이동 보조 장치가 이동할 것으로 예상되는 보행로, 주행로를 대상으로 하여 노면 정보를 수집하였으며 이때 도로 정보 수집은 데이터 수집을 보다 용이하게 하기 위하여 소형 차량을 이용하였다. 데이터는 노면과 주변을 그 주변을 구성하는 객체로 구분하여 영상을 수집하였다. 수집된 데이터로부터 교통약자의 이동을 저해하는 정도에 따라 분류하여 보도블록의 파손등급 검출과 같은 일련의 인식 항목을 정의하였고, YOLOv5 딥러닝 알고리즘을 해당 데이터에 적용하여 실시간으로 객체를 인식하는 불량노면 객체 인식 딥러닝 모델을 구현하였다. 연구의 최종단계에서 실제 주행을 통해 객체 단위로 분리 수집된 영상 데이터의 가공, 정제 및 어노테이션 과정을 수행한 후 모델 학습과 검증을 거쳐 불량노면객체를 자동으로 검출하는 딥러닝 모델의 성능 검증 과정을 진행하였다.

항공영상으로부터 YOLOv5를 이용한 도심수목 탐지 (Detection of Urban Trees Using YOLOv5 from Aerial Images)

  • 박채원;정형섭
    • 대한원격탐사학회지
    • /
    • 제38권6_2호
    • /
    • pp.1633-1641
    • /
    • 2022
  • 도시의 인구 집중과 무분별한 개발은 대기오염, 열섬현상과 같은 다양한 환경 문제들을 유발하며, 자연재해로 인한 피해 상황을 악화시키는 등 인재의 원인이 되고 있다. 도심 수목은 이러한 도시 문제들의 해결방안으로 제시되어왔으며, 실제로 환경 개선 기능을 제공하는 등 중요한 역할들을 수행한다. 이에 따라 수목이 도시 환경에 미치는 영향을 파악하기 위해 도심 수목에서 개별목에 대한 정량적인 측정 및 분석이 요구된다. 그러나 도심 수목의 복잡성 및 다양성은 단일 수목 탐지 정확도를 낮추는 문제점이 존재한다. 따라서 본 연구는 수목 개체에 대해 효과적인 탐지가 가능한 고해상도 항공영상 및 object detection에서 뛰어난 성능을 발휘한 You Only Look Once Version 5 (YOLOv5) 모델을 사용하여 도심 수목을 효과적으로 탐지하는 연구를 진행하였다. 수목 AI 학습 데이터셋의 구축을 위한 라벨링 가이드라인을 생성하고 이를 기준으로 동작구 수목에 대해 box annotation을 수행하였다. 구축된 데이터셋으로부터 다양한 scale의 YOLOv5 모델들을 테스트하고 최적의 모델을 채택하여 효율적인 도심 수목 탐지를 수행한 결과, mean Average Precision (mAP) 0.663의 유의미한 결과를 도출하였다.

중고스마트폰 업사이클링을 통한 보행위험요인 인지판단 연구 (A Study on the Cognitive Judgment of Pedestrian Risk Factors Using a Second-hand Mobile Phones)

  • 장일준;정종모;이재덕;안세영
    • 한국콘텐츠학회논문지
    • /
    • 제22권1호
    • /
    • pp.274-282
    • /
    • 2022
  • 보행자의 보행권 확보를 위해 기존 보행자 교통사고의 원인, 진단, 감소 방안을 모색하는데 있어 기존 조사방식, 분석방법, 진단 등의 한계성을 극복하기 위한 대체방안으로 중고스마트폰을 활용한 모바일 CCTV 활용방안을 제시하였다. 중고스마트폰을 업사이클링하여 모바일CCTV를 제작하였고 보행사망사고가 다수 발생하는 지역에 설치하여 24시간 이상의 영상데이터를 확보하였다. 영상시각화 기술과 클라우딩 리포팅(Crowding Reporting) 기술을 적용하여 분석하였으며, 인공지능 학습기반의 모델링과 GIS 기반의 진단지도를 통해 더욱 정밀하고 정확한 결과를 도출하였다. 그 결과 보행안전 위험요인과 횟수를 분석할 수 있었으며, 기존 방식으로는 알 수 없었던 요인까지 도출할 수 있었다. 또한 중고스마트폰 업사이클링 모바일 CCTV가 보행위험요인을 찾는데 객관적 도구가 될 것인지 검증하기 위해 데이터를 1년으로 환산하여 교통사고 위험지수를 도출하였다. 연구를 통해 새롭게 적용된 중고스마트폰의 업사이클링 모바일 CCTV는 보행자의 보행위험요인을 찾는데 새로운 도구로 활용이 가능하며, 이를 발전시켜 보행자외 교통약자의 안전을 지키는 서비스로 활용이 가능할 것이다.

재난지역에서의 신속한 건물 피해 정도 감지를 위한 딥러닝 모델의 정량 평가 (Quantitative Evaluations of Deep Learning Models for Rapid Building Damage Detection in Disaster Areas)

  • 서준호;양병윤
    • 한국측량학회지
    • /
    • 제40권5호
    • /
    • pp.381-391
    • /
    • 2022
  • 본 연구는 AI 기법 중에 최근 널리 사용되고 있는 딥러닝 모델들을 비교하여 재난으로 인해 손상된 건물의 신속한 감지에 가장 적합한 모델을 선정하는 데 목적이 있다. 먼저, 신속한 객체감지에 적합한 1단계 기반 검출기 중 주요 딥러닝 모델인 SSD-512, RetinaNet, YOLOv3를 후보 모델로 선정하였다. 이 방법들은 1단계 기반 검출기 방식을 적용한 모델로서 객체 인식 분야에 널리 이용되고 있다. 이 모델들은 객체 인식 처리방식의 구조와 빠른 연산의 장점으로 인해 객체 인식 분야에 널리 사용되고 있으나 재난관리에서의 적용은 초기 단계에 머물러 있다. 본 연구에서는 피해감지에 가장 적합한 모델을 찾기 위해 다음과 같은 과정을 거쳤다. 먼저, 재난에 의한 건물의 피해 정도 감지를 위해 재난에 의해 손상된 건물로 구성된 xBD 데이터셋을 활용하여 초고해상도 위성영상을 훈련시켰다. 다음으로 모델 간의 성능을 비교·평가하기 위하여 모델의 감지 정확도와 이미지 처리속도를 정량적으로 분석하였다. 학습 결과, YOLOv3는 34.39%의 감지 정확도와 초당 46개의 이미지 처리속도를 기록하였다. RetinaNet은 YOLOv3보다 1.67% 높은 36.06%의 감지 정확도를 기록하였으나, 이미지 처리속도는 YOLOv3의 3분의 1에 그쳤다. SSD-512는 두 지표에서 모두 YOLOv3보다 낮은 수치를 보였다. 대규모 재난에 의해 발생한 피해 정보에 대한 신속하고 정밀한 수집은 재난 대응에 필수적이다. 따라서 본 연구를 통해 얻은 결과는 신속한 지리정보 취득이 요구되는 재난관리에 효과적으로 활용될 수 있을 것이라 기대한다.

딥 러닝 기반 이미지 트레이닝을 활용한 하천 공간 내 피복 분류 가능성 검토 (Review of Land Cover Classification Potential in River Spaces Using Satellite Imagery and Deep Learning-Based Image Training Method)

  • 강우철;장은경
    • Ecology and Resilient Infrastructure
    • /
    • 제9권4호
    • /
    • pp.218-227
    • /
    • 2022
  • 본 연구는 효율적인 하천 관리를 위해 중요한 데이터 중 하나인 하천 공간의 토지피복 분류를 위해 딥 러닝 기반의 이미지 트레이닝 방법의 활용가능성을 검토하였다. 이를 위해 대상 구간의 RGB 이미지를 활용하여 라벨링 작업 후 학습시킨 결과를 활용하여 기존 대분류 지표를 기준으로 토지피복 분류를 시도하였다. 또한 개방형으로 제공되는 Sentinel-2 위성 영상으로부터 무감독 분류 및 감독 분류에 의한 하천 공간의 토지피복 분류를 수행하였으며, 딥 러닝 기반 이미지 분류 결과와 비교하였다. 분석 결과의 경우 무감독 분류 결과와 비교하여 매우 향상된 예측 결과를 보여주었으며, 고해상도 이미지의 경우 더욱 정확한 분류 결과를 제시하였다. 단순한 이미지 라벨링을 통해 분류된 피복 분류 결과는 하천 공간 내 수역과 습지의 분류 가능성을 보여주었으며, 향후 추가적인 연구 수행이 이루어진다면 하천 관리를 위해 딥 러닝 기반 이미지 트레이닝 기법을 이용한 하천 공간내 피복 분류 결과의 활용이 가능할 것으로 판단된다.

합성곱 신경망을 이용한 '미황' 복숭아 과실의 성숙도 분류 (Grading of Harvested 'Mihwang' Peach Maturity with Convolutional Neural Network)

  • 신미희;장경은;이슬기;조정건;송상준;김진국
    • 생물환경조절학회지
    • /
    • 제31권4호
    • /
    • pp.270-278
    • /
    • 2022
  • 본 연구는 무대재배 복숭아 '미황'을 대상으로 성숙기간 중 RGB 영상을 취득한 후 다양한 품질 지표를 측정하고 이를 딥러닝 기술에 적용하여 복숭아 과실 숙도 분류의 가능성을 탐색하고자 실시하였다. 취득 영상 730개의 데이터를 training과 validation에 사용하였고, 170개는 최종테스트 이미지로 사용하였다. 본 연구에서는 딥러닝을 활용한 성숙도 자동 분류를 위하여 조사된 품질 지표 중 경도, Hue 값, a*값을 최종 선발하여 이미지를 수동으로 미성숙(immature), 성숙(mature), 과숙(over mature)으로 분류하였다. 이미지 자동 분류는 CNN(Convolutional Neural Networks, 컨볼루션 신경망) 모델 중에서 이미지 분류 및 탐지에서 우수한 성능을 보이고 있는 VGG16, GoogLeNet의 InceptionV3 두종류의 모델을 사용하여 복숭아 품질 지표 값의 분류 이미지별 성능을 측정하였다. 딥러닝을 통한 성숙도 이미지 분석 결과, VGG16과 InceptionV3 모델에서 Hue_left 특성이 각각 87.1%, 83.6%의 성능(F1 기준)을 나타냈고, 그에 비해 Firmness 특성이 각각 72.2%, 76.9%를 나타냈고, Loss율이 각각 54.3%, 62.1%로 Firmness를 기준으로 한 성숙도 분류는 적용성이 낮음을 확인하였다. 추후에 더 많은 종류의 이미지와 다양한 품질 지표를 가지고 학습이 진행된다면 이전 연구보다 향상된 정확도와 세밀한 성숙도 판별이 가능할 것으로 판단되었다.

자율주행 UAM의 안전착륙을 위한 위험영역 추출에 관한 기초 연구 (A Basic Study on the Extraction of Dangerous Region for Safe Landing of self-Driving UAMs)

  • 박창민
    • Journal of Platform Technology
    • /
    • 제11권3호
    • /
    • pp.24-31
    • /
    • 2023
  • 최근, 도시 교통체계 운항으로 수직이착륙이 가능한 UAM(Urban Air Mobility, UAM)의 관심이 고조되고 있다. 따라서 첨단 기술이 적용된 친환경 미래형 교통수단으로 다양한 스타트업 기업에서 관련 기술들을 개발하고 있다. 하지만, UAM의 운항에서 안전성을 높일 수 있는 방안들에 관한 연구들은 아직 미미한 편이다. 특히, 자율주행이 탑재된 UAM이 도심에서의 착륙을 시도하는 과정에서 발생되는 위험에 대한 안전성을 향상시킬 수 있는 노력이 더욱 절실하다. 이에, 본 연구에서는, 도심에서 자율주행 UAM이 착륙을 시도 할 때, 방해가 되는 위험영역을 회피하여 안전하게 착륙할 수 있도록 하는 방안을 제안한다. 이를 위하여, 먼저, UAM의 센서에 의해 관측되는 위험물들의 위도 및 경도 좌표값을 산출하고, 이를 바탕으로, 3차원 영상에서 왜곡이 고려된 평면 영상의 좌표를 위도와 경도로 변환한 후 산출된 위도와 경도를 이용하여 미리 학습된 특징 서술자와HOG(Histogram of Oriented Gradients, HOG) 특징 서술자와의 비교하여 위험영역을 추출하는 방안을 제안한다. 위험영역을 완벽히 추출할 수는 없었지만 대체적으로 만족할 만한 결과를 얻을 수 있었다. 이에, 제안된 연구 방법이 자율주행 기술이 탑재된 UAM의 이착륙장 선정에 따른 막대한 비용을 줄이고, 도심과 같은 복잡한 환경에서 착륙을 시도할 때 위험성을 감소시키고 안전성을 높이기 위한 기초적인 방안에 기여할 것으로 사료된다.

  • PDF

AI모델을 적용한 군 경계체계 지능화 방안 (A Methodology for Making Military Surveillance System to be Intelligent Applied by AI Model)

  • 한창희;구하림;박복기
    • 인터넷정보학회논문지
    • /
    • 제24권4호
    • /
    • pp.57-64
    • /
    • 2023
  • 현재 진행되는 고령화 및 인구절벽으로 대표되는 인구구조적 문제는 한국군 경계임무에 심각한 도전이 되고 있다. 본 연구의 목적은 AI모델을 적용해 군 경계체계를 지능화하는 것이다. 본 연구를 통해 제4차 산업혁명과 그 핵심이 되는 인공지능 알고리즘의 의의가 경계근무 상황실 내에서의 단순작업을 기계화하여 작업효율을 극대화하는 것임을 실증한다. 하나의 완성된 시스템으로서 군경계체계를 개발하기 위해, 지능화·자동화된 군(軍) 경계체계라는 목표로부터 필요한 인공지능 기술인 다중 객체 추적(multi-object tracking, MOT) 기술을 선택한다. 또한 체계 사용자의 접근성 및 체계 이용의 효율성을 담보하기 위해서는 데이터 시각화(data visualization)와 사용자 인터페이스(user interface)를 꼽았다. 이 추가 요소를 결합하여 하나의 유기적인 소프트웨어 애플리케이션을 구성한다. CCTV 영상 데이터 수집한 장소는 00부대 제1정문 및 제2정문에 설치된 CCTV 카메라이며, 지통실의 협조 아래 영상 수집을 진행하였다. 실험결과를 통해 경계체계를 지능화·자동화시켜 더 많은 정보를 경계체계 운용인원에게 전달할 수 있음을 보였다. 그러 나 여전히 개발된 소프트웨어 경계체계 역시 한계점이 존재한다. 이를 설명하여 군 경계체계 개발의 향후 방향성을 제시한다.

IoT 기반 교통사고 실시간 인지방법론 연구 (A Study on the Real-time Recognition Methodology for IoT-based Traffic Accidents)

  • 오성훈;전영준;권영우;정석찬
    • 한국빅데이터학회지
    • /
    • 제7권1호
    • /
    • pp.15-27
    • /
    • 2022
  • 최근 5년간 차량 단독사고 교통사고 치사율이 전체 사고보다 4.7배 높은 것으로 집계되고 있으며, 차량 단독사고를 즉각적으로 감지하고 대응할 수 있는 시스템 구축이 필요하다. 본 연구는 가드레일에 충격과 차량 진입 감지 IoT(Internet of Thing) 센서를 부착하여 가드레일 충격 발생 시 사고 현장의 영상을 인공지능 기술을 통해 분석하고 구조기관에 전송하여 빠른 구조작업을 수행하여 피해를 최소화 시킬 수 있는 방법론을 제시한다. 해당 구간 내 차량 진입과 가드레일 충격 감지를 위한 IoT 센서 모듈과 차량 이미지 데이터 학습을 통한 인공지능 기반 객체 탐지 모듈을 구현하였다. 그리고, 센서 정보와 영상 데이터 등을 통합적으로 관리하는 모니터링 및 운영 모듈도 구현하였다. 시스템 유효성 검증을 위하여 충격 감지 전송속도와 자동차 및 사람 객체 탐지 정확도, 센서 장애감지 정확도를 측정한 결과, 모두 목표치를 충족하였다. 향후에는 실제 도로에 적용하여 실데이터를 적용한 유효성을 검증하고 상용화할 계획이다. 본 시스템은 도로 안전 향상에 이바지할 것이다.

다중 객체 추적 알고리즘을 이용한 가공품 흐름 정보 기반 생산 실적 데이터 자동 수집 (Automatic Collection of Production Performance Data Based on Multi-Object Tracking Algorithms)

  • 임현아;오서정;손형준;오요셉
    • 한국전자거래학회지
    • /
    • 제27권2호
    • /
    • pp.205-218
    • /
    • 2022
  • 최근 제조업에서의 디지털 전환이 가속화되고 있다. 이에 따라 사물인터넷(internet of things: IoT) 기반으로 현장 데이터를 수집하는 기술의 중요성이 증대되고 있다. 이러한 접근법들은 주로 각종 센서와 통신 기술을 활용하여 특정 제조 데이터를 확보하는 것에 초점을 맞춘다. 현장 데이터 수집의 채널을 확장하기 위해 본 연구는 비전(vision) 인공지능 기반으로 제조 데이터를 자동 수집하는 방법을 제안한다. 이는 실시간 영상 정보를 객체 탐지 및 추적 기술로 분석하고, 필요한 제조 데이터를 확보하는 것이다. 연구진은 객체 탐지 및 추적 알고리즘으로 YOLO(You Only Look Once)와 딥소트(DeepSORT)를 적용하여 프레임별 객체의 움직임 정보를 수집한다. 이후, 움직임 정보는 후보정을 통해 두 가지 제조 데이터(생산 실적, 생산 시간)로 변환된다. 딥러닝을 위한 학습 데이터를 확보하기 위해 동적으로 움직이는 공장 모형이 제작되었다. 또한, 실시간 영상 정보가 제조 데이터로 자동 변환되어 데이터베이스에 저장되는 상황을 재현하기 위해 운영 시나리오를 수립하였다. 운영 시나리오는 6개의 설비로 구성된 흐름 생산 공정(flow-shop)을 가정한다. 운영 시나리오에 따른 제조 데이터를 수집한 결과 96.3%의 정확도를 보였다.