• 제목/요약/키워드: learning through the image

검색결과 925건 처리시간 0.025초

YOLO 알고리즘을 활용한 Planetscope 위성영상 기반 비닐하우스 탐지 (Detecting Greenhouses from the Planetscope Satellite Imagery Using the YOLO Algorithm)

  • 김성수;정연인;정윤재
    • 한국지리정보학회지
    • /
    • 제26권4호
    • /
    • pp.27-39
    • /
    • 2023
  • 원격탐사 자료 기반 비닐하우스 탐지 기술 개발은 불법 농경 시설물의 현황 파악과 비닐하우스에서 재배되는 농작물 수량 예측을 위해 중요하다. 본 연구에서는 딥러닝 알고리즘을 활용하여 김제시 지역을 촬영한 Planetscope 위성영상들로부터 비닐하우스를 탐지하기 위한 방법을 제안하였다. 우선, 5장의 Planetscope 위성영상을 기반으로 비닐하우스 객체를 포함한 훈련 영상들을 제작하였다. 그리고, 훈련 영상들을 이용하여 YOLO(You Only Look Once) 모델을 학습시킨다. 학습시킨 YOLO 모델을 테스트 Planetscope 위성영상에 적용하여 비닐하우스 객체들을 탐지한다. 본 연구에서 제안한 방법을 적용한 결과, 주어진 Planetscope 위성영상으로부터 총 76.4%의 비닐하우스가 탐지되었다. 추후 연구에서는 공간해상도 1m 이하의 고해상도 위성영상에서 더 많은 비닐하우스 객체를 탐지하기 위한 기술을 개발할 계획이다.

교통사고 심각 정도 예측을 위한 TATI 모델 제안 (Proposed TATI Model for Predicting the Traffic Accident Severity)

  • 추민지;박소현;박영호
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권8호
    • /
    • pp.301-310
    • /
    • 2021
  • TATI 모델이란 Traffic Accident Text to RGB Image 모델로, 교통사고 심각 정도 예측을 위한 본 논문에서 제안하는 방법론이다. 교통사고 치사율은 매년 감소하는 추세이나 OECD 회원국 중 하위권에 속해있다. 교통사고 치사율 감소를 위해 많은 연구들이 진행되었고, 그 중에서 교통사고 심각 정도를 예측하여 발생 및 치사율을 줄이기 위한 연구가 꾸준하게 진행되고 있다. 이와 관련하여 최근에는 통계 모델과 딥러닝 모델을 활용하여 교통사고 심각 정도 예측을 하는 연구가 활발하다. 본 논문에서는 교통사고 심각 정도를 예측하기 위해서 교통사고 데이터를 컬러 이미지로 변환하고, CNN 모델을 통해 이를 수행한다. 성능 비교를 위해 제안하는 모델과 다른 모델들을 같은 데이터로 학습시키고, 예측결과를 비교하는 실험을 진행했다. 10번의 실험을 통해 4개의 딥러닝 모델의 정확도와 오차 범위를 비교하였다. 실험 결과에 따르면 제안하는 TATI 모델의 정확도가 0.85로 가장 높은 정확도를 보였고, 0.03으로 두 번째로 낮은 오차 범위를 보여 성능의 우수성을 확인하였다.

Weather Recognition Based on 3C-CNN

  • Tan, Ling;Xuan, Dawei;Xia, Jingming;Wang, Chao
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권8호
    • /
    • pp.3567-3582
    • /
    • 2020
  • Human activities are often affected by weather conditions. Automatic weather recognition is meaningful to traffic alerting, driving assistance, and intelligent traffic. With the boost of deep learning and AI, deep convolutional neural networks (CNN) are utilized to identify weather situations. In this paper, a three-channel convolutional neural network (3C-CNN) model is proposed on the basis of ResNet50.The model extracts global weather features from the whole image through the ResNet50 branch, and extracts the sky and ground features from the top and bottom regions by two CNN5 branches. Then the global features and the local features are merged by the Concat function. Finally, the weather image is classified by Softmax classifier and the identification result is output. In addition, a medium-scale dataset containing 6,185 outdoor weather images named WeatherDataset-6 is established. 3C-CNN is used to train and test both on the Two-class Weather Images and WeatherDataset-6. The experimental results show that 3C-CNN achieves best on both datasets, with the average recognition accuracy up to 94.35% and 95.81% respectively, which is superior to other classic convolutional neural networks such as AlexNet, VGG16, and ResNet50. It is prospected that our method can also work well for images taken at night with further improvement.

아동 금연 도우미 교육프로그램 개발 및 효과평가 (Effectiveness Evaluation of Peer Education Program on Smoking Prevention and Cessation for Elementary School Students)

  • 김영복;김신월;신준호
    • 농촌의학ㆍ지역보건
    • /
    • 제29권1호
    • /
    • pp.15-28
    • /
    • 2004
  • Objectives: This study was performed to examined the effectiveness evaluation of peer education program on smoking prevention and cessation for elementary school students. Methods: Data were collected from 60 students in a rural area through self-administrated questionnaires. Child-leaders participated the peer education program to assist their friend, parent, and adult in community to quit the smoking for 4 weeks. Results and Conclusions: Major conclusions were as follows : 1. The peer education program on smoking prevention and cessation for elementary school students was reinforce to increasing the tobacco knowledge and the cessation skill, learning the communication skill, and improving the empowerment. 2. Image of tobacco, intention of smoking in future, recommendation for smoking cessation, pro of smoking. con of smoking, and level of assert in post-test were higher than those in pre-test. 3. There were significant differences in image of tobacco, con of smoking, and level of assert by grade between the pre-test and the post-test of peer education program. But intention of smoking in future, recommendation for smoking cessation, and pro of smoking were not related to effectiveness of peer education program. 4. Child-leaders for smoking prevention and cessation performed the their task to 1.4 persons per student. 5. Participating students were satisfied with the contents of program, the usefulness of educational materials, and preference of parents, but they were not satisfied with the usefulness of task note, learning time, and lecture room.

  • PDF

합성곱 신경망을 이용한 온실 파프리카의 작물 생체중 추정 (Estimation of Sweet Pepper Crop Fresh Weight with Convolutional Neural Network)

  • 문태원;박준영;손정익
    • 생물환경조절학회지
    • /
    • 제29권4호
    • /
    • pp.381-387
    • /
    • 2020
  • 작물의 생체중을 추정하기 위해 다양한 연구가 시도되었지만, 이미지를 활용하여 생체중을 추정한 예는 없었다. 최근 합성곱 신경망을 사용한 이미지 처리 연구가 늘고 있으며, 합성곱 신경망은 미가공 데이터를 그대로 사용할 수 있다. 본 연구에서는 합성곱 신경망을 이용하여 미가공 데이터 상태인 특정 시점의 파프리카 이미지를 입력으로 작물의 생체중을 추정하도록 학습하였다. 실험은 파프리카(Capsicum annuum L.)를 재배하는 온실에서 수행하였다. 합성곱 신경망의 출력값인 생체중은 파괴조사를 통해 수집한 데이터를 기반으로 회귀 분석하였다. 학습된 합성곱 신경망의 결정 계수(R2)의 최고값은 0.95로 나타났다. 생체중 추정값은 실제 측정값과 매우 유사한 경향성을 보여주었다.

R-CNN 기법을 이용한 지중매설물 제원 정보 자동 추출 연구 (A Study on Automatically Information Collection of Underground Facility Using R-CNN Techniques)

  • 박현석;홍기만;조용성
    • 한국재난정보학회 논문집
    • /
    • 제19권3호
    • /
    • pp.689-697
    • /
    • 2023
  • 연구목적: 본 연구는 미니트렌칭 공법 적용 과정에서 범용 스마트폰을 이용하여 지중매설물의 정보를 자동 추출하는데 목적이 있다. 연구방법:이미지 학습을 위한 데이터 셋은 주야간, 높이, 각도 등의 다양한 조건에서 수집하였으며, 객체 검지알고리즘은 R-CNN 알고리즘을 이용하였다. 연구결과: 성능평가지표는 정확한 예측과 재현율의 평균을 동시에 고려할 수 있는 F1-Score를 적용하였으며, 학습결과 F1-Score는 0.76으로 나타났다. 결론: 본 연구의 결과는 스마트폰 기반의 지중매설물 정보 추출이 가능한 것으로 나타났으나, 학습데이터의 추가적인 확보와 현장 실증 등을 통해 알고리즘의 정밀성 및 정확성을 향상시킬 필요가 있을 것으로 판단된다.

딥 러닝을 이용한 비디오 카메라 모델 판별 시스템 (Video Camera Model Identification System Using Deep Learning)

  • 김동현;이수현;이해연
    • 한국정보기술학회논문지
    • /
    • 제17권8호
    • /
    • pp.1-9
    • /
    • 2019
  • 현대 사회에서 영상 정보 통신 기술이 발전함에 따라서 영상 획득 및 대량 생산 기술도 급속히 발전하였지만 이를 이용한 범죄도 증가하여 범죄 예방을 위한 법의학 연구가 진행되고 있다. 영상 획득 장치에 대한 판별 기술은 많이 연구되었지만, 그 분야가 영상으로 한정되어 있다. 본 논문에서는 영상이 아닌 동영상에 대한 카메라 모델의 판별 기법을 제안한다. 기존의 영상을 학습한 모델을 사용하여 동영상의 프레임을 분석하였고, 동영상의 프레임 특성을 활용한 학습과 분석을 통하여 P 프레임을 활용한 모델의 우수성을 보였다. 이를 이용하여 다수결 기반 판별 알고리즘을 적용한 동영상에 대한 카메라 모델 판별 시스템을 제안하였다. 실험에서는 5개 비디오 카메라 모델을 이용하여 분석을 하였고, 각각의 프레임 판별에 대해 최대 96.18% 정확도를 얻었으며, 비디오 카메라 모델 판별 시스템은 각 카메라 모델에 대하여 100% 판별률을 달성하였다.

AR을 이용한 당구 학습 시스템 (Augmented Reality-based Billiards Training System)

  • 강승우;최강선
    • 실천공학교육논문지
    • /
    • 제12권2호
    • /
    • pp.309-319
    • /
    • 2020
  • 당구는 재미있는 스포츠이지만, 처음 입문한 초심자가 득점 가능한 경로를 계산하고 올바르게 공을 쳐서 보낼 정도로 숙련되기까지의 진입 장벽이 높은 편이다. 당구 초심자가 어느 정도 수준에 도달하기 위해선 지속적인 집중과 훈련을 필요로 하는데, 적절한 동기 부여 요소가 없다면 흥미를 잃어버리기 쉽다. 본 연구는 스테레오 카메라와 VR 헤드셋을 결합한 몰입도 높은 증강 현실 플랫폼 상에서 당구 경로 안내 및 시각 효과를 통해 초심자의 흥미를 유도하고 당구 학습을 가속하는 것을 목표로 두었다. 이를 위해 영상처리를 활용하여 당구공 배치를 인식하고 Unity Engine의 물리 시뮬레이션을 통해 경로 탐색과 시각화를 수행해 실제와 유사한 경로 예측을 구현했다. 이는 당구에 처음 입문하는 초심자가 경로 설계에 대한 부담 없이 공을 올바르게 보내는 훈련에만 집중할 수 있게 만들며, 나아가 오랜 시간 알고리즘이 제안하는 경로를 익힘으로써 점진적으로 당구 숙련도를 높일 수 있다는 점에서 AR 당구의 학습 보조 도구로서의 가능성을 확인할 수 있었다.

드론 방제의 최적화를 위한 딥러닝 기반의 밀도맵 추정 (Density map estimation based on deep-learning for pest control drone optimization)

  • 성백겸;한웅철;유승화;이춘구;강영호;우현호;이헌석;이대현
    • 드라이브 ㆍ 컨트롤
    • /
    • 제21권2호
    • /
    • pp.53-64
    • /
    • 2024
  • Global population growth has resulted in an increased demand for food production. Simultaneously, aging rural communities have led to a decrease in the workforce, thereby increasing the demand for automation in agriculture. Drones are particularly useful for unmanned pest control fields. However, the current method of uniform spraying leads to environmental damage due to overuse of pesticides and drift by wind. To address this issue, it is necessary to enhance spraying performance through precise performance evaluation. Therefore, as a foundational study aimed at optimizing drone-based pest control technologies, this research evaluated water-sensitive paper (WSP) via density map estimation using convolutional neural networks (CNN) with a encoder-decoder structure. To achieve more accurate estimation, this study implemented multi-task learning, incorporating an additional classifier for image segmentation alongside the density map estimation classifier. The proposed model in this study resulted in a R-squared (R2) of 0.976 for coverage area in the evaluation data set, demonstrating satisfactory performance in evaluating WSP at various density levels. Further research is needed to improve the accuracy of spray result estimations and develop a real-time assessment technology in the field.

Object Detection Based on Deep Learning Model for Two Stage Tracking with Pest Behavior Patterns in Soybean (Glycine max (L.) Merr.)

  • Yu-Hyeon Park;Junyong Song;Sang-Gyu Kim ;Tae-Hwan Jun
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2022년도 추계학술대회
    • /
    • pp.89-89
    • /
    • 2022
  • Soybean (Glycine max (L.) Merr.) is a representative food resource. To preserve the integrity of soybean, it is necessary to protect soybean yield and seed quality from threats of various pests and diseases. Riptortus pedestris is a well-known insect pest that causes the greatest loss of soybean yield in South Korea. This pest not only directly reduces yields but also causes disorders and diseases in plant growth. Unfortunately, no resistant soybean resources have been reported. Therefore, it is necessary to identify the distribution and movement of Riptortus pedestris at an early stage to reduce the damage caused by insect pests. Conventionally, the human eye has performed the diagnosis of agronomic traits related to pest outbreaks. However, due to human vision's subjectivity and impermanence, it is time-consuming, requires the assistance of specialists, and is labor-intensive. Therefore, the responses and behavior patterns of Riptortus pedestris to the scent of mixture R were visualized with a 3D model through the perspective of artificial intelligence. The movement patterns of Riptortus pedestris was analyzed by using time-series image data. In addition, classification was performed through visual analysis based on a deep learning model. In the object tracking, implemented using the YOLO series model, the path of the movement of pests shows a negative reaction to a mixture Rina video scene. As a result of 3D modeling using the x, y, and z-axis of the tracked objects, 80% of the subjects showed behavioral patterns consistent with the treatment of mixture R. In addition, these studies are being conducted in the soybean field and it will be possible to preserve the yield of soybeans through the application of a pest control platform to the early stage of soybeans.

  • PDF