• 제목/요약/키워드: learning through the image

검색결과 931건 처리시간 0.026초

딥 러닝을 이용한 비디오 카메라 모델 판별 시스템 (Video Camera Model Identification System Using Deep Learning)

  • 김동현;이수현;이해연
    • 한국정보기술학회논문지
    • /
    • 제17권8호
    • /
    • pp.1-9
    • /
    • 2019
  • 현대 사회에서 영상 정보 통신 기술이 발전함에 따라서 영상 획득 및 대량 생산 기술도 급속히 발전하였지만 이를 이용한 범죄도 증가하여 범죄 예방을 위한 법의학 연구가 진행되고 있다. 영상 획득 장치에 대한 판별 기술은 많이 연구되었지만, 그 분야가 영상으로 한정되어 있다. 본 논문에서는 영상이 아닌 동영상에 대한 카메라 모델의 판별 기법을 제안한다. 기존의 영상을 학습한 모델을 사용하여 동영상의 프레임을 분석하였고, 동영상의 프레임 특성을 활용한 학습과 분석을 통하여 P 프레임을 활용한 모델의 우수성을 보였다. 이를 이용하여 다수결 기반 판별 알고리즘을 적용한 동영상에 대한 카메라 모델 판별 시스템을 제안하였다. 실험에서는 5개 비디오 카메라 모델을 이용하여 분석을 하였고, 각각의 프레임 판별에 대해 최대 96.18% 정확도를 얻었으며, 비디오 카메라 모델 판별 시스템은 각 카메라 모델에 대하여 100% 판별률을 달성하였다.

AR을 이용한 당구 학습 시스템 (Augmented Reality-based Billiards Training System)

  • 강승우;최강선
    • 실천공학교육논문지
    • /
    • 제12권2호
    • /
    • pp.309-319
    • /
    • 2020
  • 당구는 재미있는 스포츠이지만, 처음 입문한 초심자가 득점 가능한 경로를 계산하고 올바르게 공을 쳐서 보낼 정도로 숙련되기까지의 진입 장벽이 높은 편이다. 당구 초심자가 어느 정도 수준에 도달하기 위해선 지속적인 집중과 훈련을 필요로 하는데, 적절한 동기 부여 요소가 없다면 흥미를 잃어버리기 쉽다. 본 연구는 스테레오 카메라와 VR 헤드셋을 결합한 몰입도 높은 증강 현실 플랫폼 상에서 당구 경로 안내 및 시각 효과를 통해 초심자의 흥미를 유도하고 당구 학습을 가속하는 것을 목표로 두었다. 이를 위해 영상처리를 활용하여 당구공 배치를 인식하고 Unity Engine의 물리 시뮬레이션을 통해 경로 탐색과 시각화를 수행해 실제와 유사한 경로 예측을 구현했다. 이는 당구에 처음 입문하는 초심자가 경로 설계에 대한 부담 없이 공을 올바르게 보내는 훈련에만 집중할 수 있게 만들며, 나아가 오랜 시간 알고리즘이 제안하는 경로를 익힘으로써 점진적으로 당구 숙련도를 높일 수 있다는 점에서 AR 당구의 학습 보조 도구로서의 가능성을 확인할 수 있었다.

드론 방제의 최적화를 위한 딥러닝 기반의 밀도맵 추정 (Density map estimation based on deep-learning for pest control drone optimization)

  • 성백겸;한웅철;유승화;이춘구;강영호;우현호;이헌석;이대현
    • 드라이브 ㆍ 컨트롤
    • /
    • 제21권2호
    • /
    • pp.53-64
    • /
    • 2024
  • Global population growth has resulted in an increased demand for food production. Simultaneously, aging rural communities have led to a decrease in the workforce, thereby increasing the demand for automation in agriculture. Drones are particularly useful for unmanned pest control fields. However, the current method of uniform spraying leads to environmental damage due to overuse of pesticides and drift by wind. To address this issue, it is necessary to enhance spraying performance through precise performance evaluation. Therefore, as a foundational study aimed at optimizing drone-based pest control technologies, this research evaluated water-sensitive paper (WSP) via density map estimation using convolutional neural networks (CNN) with a encoder-decoder structure. To achieve more accurate estimation, this study implemented multi-task learning, incorporating an additional classifier for image segmentation alongside the density map estimation classifier. The proposed model in this study resulted in a R-squared (R2) of 0.976 for coverage area in the evaluation data set, demonstrating satisfactory performance in evaluating WSP at various density levels. Further research is needed to improve the accuracy of spray result estimations and develop a real-time assessment technology in the field.

Object Detection Based on Deep Learning Model for Two Stage Tracking with Pest Behavior Patterns in Soybean (Glycine max (L.) Merr.)

  • Yu-Hyeon Park;Junyong Song;Sang-Gyu Kim ;Tae-Hwan Jun
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2022년도 추계학술대회
    • /
    • pp.89-89
    • /
    • 2022
  • Soybean (Glycine max (L.) Merr.) is a representative food resource. To preserve the integrity of soybean, it is necessary to protect soybean yield and seed quality from threats of various pests and diseases. Riptortus pedestris is a well-known insect pest that causes the greatest loss of soybean yield in South Korea. This pest not only directly reduces yields but also causes disorders and diseases in plant growth. Unfortunately, no resistant soybean resources have been reported. Therefore, it is necessary to identify the distribution and movement of Riptortus pedestris at an early stage to reduce the damage caused by insect pests. Conventionally, the human eye has performed the diagnosis of agronomic traits related to pest outbreaks. However, due to human vision's subjectivity and impermanence, it is time-consuming, requires the assistance of specialists, and is labor-intensive. Therefore, the responses and behavior patterns of Riptortus pedestris to the scent of mixture R were visualized with a 3D model through the perspective of artificial intelligence. The movement patterns of Riptortus pedestris was analyzed by using time-series image data. In addition, classification was performed through visual analysis based on a deep learning model. In the object tracking, implemented using the YOLO series model, the path of the movement of pests shows a negative reaction to a mixture Rina video scene. As a result of 3D modeling using the x, y, and z-axis of the tracked objects, 80% of the subjects showed behavioral patterns consistent with the treatment of mixture R. In addition, these studies are being conducted in the soybean field and it will be possible to preserve the yield of soybeans through the application of a pest control platform to the early stage of soybeans.

  • PDF

스켈레톤 벡터 정보와 RNN 학습을 이용한 행동인식 알고리즘 (Using Skeleton Vector Information and RNN Learning Behavior Recognition Algorithm)

  • 김미경;차의영
    • 방송공학회논문지
    • /
    • 제23권5호
    • /
    • pp.598-605
    • /
    • 2018
  • 행동 인식은 데이터를 통해 인간의 행동을 인식하는 기술로서 비디오 감시 시스템을 통한 위험 행동과 같은 어플리케이션에 활용되어 질 수 있다. 기존의 행동 인식 알고리즘은 2차원 카메라를 통한 영상이나 다중모드 센서, 멀티 뷰와 같은 장비를 이용한 방법을 사용하거나 3D 장비를 이용하여 이루어져 왔다. 2차원 데이터를 사용한 경우 3차원 공간의 행위 인식에서는 가려짐과 같은 현상으로 낮은 인식율을 보였고 다른 방법은 복잡한 장비의 구성이나 고가의 추가적인 장비로 인한 어려움이 많았다. 본 논문은 RGB와 Depth 정보만을 이용하여 추가적인 장비 없이 CCTV 영상만으로 인간의 행동을 인식하는 방법을 제안한다. 먼저 RGB 영상에서 스켈레톤 추출 알고리즘을 적용하여 관절과 신체부위의 포인트를 추출한다. 이를 식을 적용하여 변위 벡터와 관계 벡터를 포함한 벡터로 변형한 후 RNN 모델을 통하여 연속된 벡터 데이터를 학습한다. 학습된 모델을 다양한 데이터 세트에 적용하여 행동 인식 정확도를 확인한 결과 2차원 정보만으로 3차원 정보를 이용한 기존의 알고리즘과 유사한 성능을 입증할 수 있었다.

XGboost 기반의 WiFi 신호를 이용한 실내 측위 기법 (Indoor positioning method using WiFi signal based on XGboost)

  • 황치곤;윤창표;김대진
    • 한국정보통신학회논문지
    • /
    • 제26권1호
    • /
    • pp.70-75
    • /
    • 2022
  • 위치를 정확하게 측정하는 것은 다양한 서비스를 제공하는 데 필요하다. 실내 측위를 위한 데이터는 스마트 폰의 앱을 통해 WiFi 장치로부터 RSSI 값을 측정한다. 이렇게 측정된 데이터는 기계학습의 원시 데이터가 된다. 특징 데이터는 측정된 RSSI 값이고, 레이블은 측정한 위치에 대한 공간의 이름으로 한다. 이를 위한 기계학습 기법은 분류에 효율적인 기법을 적용하여 WiFi 신호만으로 정확한 위치를 예측하는 기법을 연구하고자 한다. 앙상블은 하나의 모델보다 다양한 모델을 통하여 더 정확한 예측값을 구하는 기법으로, bagging과 boosting이 있다. 이 중 Boosting은 샘플링한 데이터를 바탕으로 모델링한 결과를 통해 모델의 가중치를 조정하는 기법으로, 다양한 알고리즘이 있다. 본 연구는 위 기법 중 XGboost를 이용하고, 다른 앙상블 기법과 이용한 수행결과를 바탕으로 성능을 평가한다.

에이다부스트 학습을 이용한 문자 데이터 검출 방법 (A Method of Detecting Character Data through a Adaboost Learning Method)

  • 장석우;변시우
    • 한국산학기술학회논문지
    • /
    • 제18권7호
    • /
    • pp.655-661
    • /
    • 2017
  • 입력되는 정지 또는 동영상에 포함된 문자 정보는 영상의 내용을 대표하는 주요한 핵심 정보를 제공할 수 있기 때문에 다양한 종류의 영상 데이터를 분석하여 영상 내에 포함된 문자 영역들을 정확하게 추출하는 작업은 매우 중요하다. 본 논문에서는 입력되는 영상으로부터 MCT 특징과 에이다부스트(Adaboost) 알고리즘을 이용하여 문자 영역만을 정확하게 검출하는 새로운 방법을 제안한다. 본 논문에서 제안된 방법에서는 먼저 입력 영상으로부터 MCT 특징과 에이다부스트 알고리즘을 이용하여 문자의 후보 영역들을 추출한다. 그런 다음, 기하학적인 특징을 활용하여 추출된 문자의 후보 영역들로부터 비 문자 영역들을 제외하고 실제적인 문제 영역들만을 검출한다. 실험 결과에서는 제안된 방법이 입력되는 다양한 영상으로부터 기존의 방법보다 문자 영역들을 2.1% 보다 강인하게 추출한다는 것을 보여준다. 본 논문에서 제안된 문자 영역 검출 방법은 상점의 간판 인식, 자동차의 번호판 인식 등과 같은 멀티미디어 및 영상 처리와 관련된 실제 응용 분야에서 매우 유용하게 활용될 것으로 기대된다.

퍼지 신경망을 이용한 자동차 번호판 인식 시스템 (Recognition System of Car License Plate using Fuzzy Neural Networks)

  • 김광백;조재현
    • 한국컴퓨터정보학회논문지
    • /
    • 제12권5호
    • /
    • pp.313-319
    • /
    • 2007
  • 본 논문에서는 획득된 차량 영상에서 수직 에지의 특징을 이용하여 번호판 영역과 개별 코드를 추출하고, 추출된 개별 코드는 퍼지 신경망 알고리즘을 이용하여 인식한다. 차량 번호판 영역을 검출하기 위해 프리윗 마스크에 의해 수직 에지를 찾고, 차량 번호판에 관한 특성 정보를 이용하여 잡음을 제거한 추에 차량 번호판 영역과 개별 코드를 추출한다 추출된 개별 코드를 인식하기 위해 퍼지 신경망 알고리즘을 제안하고 인식에 적용한다. 제안된 퍼지 신경망은 입력층과 중간층간의 학습 구조로는 FCM 알고리즘을 적용하고, 중간층과 출력층간의 학습 구조에는 Max_Min 신경망을 적용한다. 제안된 방법의 추출 및 인식 성능을 평가하기 위하여 실제 차량 영상 150장을 대상으로 실험한 결과, 기존의 차량 번호판 인식 방법보다 효율적이고 인식 성능이 개선된 것을 확인하였다.

  • PDF

IoT 기반 스마트 냉장고 시스템 (A Smart Refrigerator System based on Internet of Things)

  • 김한진;이승기;김원태
    • 전기전자학회논문지
    • /
    • 제22권1호
    • /
    • pp.156-161
    • /
    • 2018
  • 최근 인구가 급격히 증가하면서 음식물의 부족 및 낭비의 심각성이 대두되고 있다. 이를 해결하기 위해 다양한 국가 및 기업에서는 소비자의 식재료 구매 패턴 연구 및 IoT 기술이 적용된 스마트 냉장고 제품개발 등의 시도를 진행 중에 있다. 그러나, 현재 판매되고 있는 스마트 냉장고들은 기존에 비해 상당한 가격대를 형성하고 있으며, 복잡한 구성으로 인한 오작동 및 파손으로 또 다른 낭비를 초래한다. 본 논문에서는 음식물 부족 및 낭비 해결과 가정 내 원활한 식재료 관리를 위한 저비용의 IoT 기반 스마트 냉장고 시스템을 제안한다. 본 시스템은 QR코드, 이미지 인식, 음성 인식을 통해 식재료를 인식하여 등록하고 이를 바탕으로 다양한 서비스를 제공할 수 있다. 이미지 인식의 정확도를 높이기 위해 우리는 딥 러닝 알고리즘을 사용한 모델을 활용하였으며 정확한 식재료 등록이 가능함을 검증하였다.

다중 센서 융합 알고리즘을 이용한 사용자의 감정 인식 및 표현 시스템 (Emotion Recognition and Expression System of User using Multi-Modal Sensor Fusion Algorithm)

  • 염홍기;주종태;심귀보
    • 한국지능시스템학회논문지
    • /
    • 제18권1호
    • /
    • pp.20-26
    • /
    • 2008
  • 지능형 로봇이나 컴퓨터가 일상생활 속에서 차지하는 비중이 점점 높아짐에 따라 인간과의 상호교류도 점점 중요시되고 있다. 이렇게 지능형 로봇(컴퓨터) - 인간의 상호 교류하는데 있어서 감정 인식 및 표현은 필수라 할 수 있겠다. 본 논문에서는 음성 신호와 얼굴 영상에서 감정적인 특징들을 추출한 후 이것을 Bayesian Learning과 Principal Component Analysis에 적용하여 5가지 감정(평활, 기쁨, 슬픔, 화남, 놀람)으로 패턴을 분류하였다. 그리고 각각 매개체의 단점을 보완하고 인식률을 높이기 위해서 결정 융합 방법과 특징 융합 방법을 적용하여 감정 인식 실험을 하였다. 결정 융합 방법은 각각 인식 시스템을 통해 얻어진 인식 결과 값을 퍼지 소속 함수에 적용하여 감정 인식 실험을 하였으며, 특징 융합 방법은 SFS(Sequential Forward Selection) 특징 선택 방법을 통해 우수한 특징들을 선택한 후 MLP(Multi Layer Perceptron) 기반 신경망(Neural Networks)에 적용하여 감정 인식 실험을 실행하였다. 그리고 인식된 결과 값을 2D 얼굴 형태에 적용하여 감정을 표현하였다.