• 제목/요약/키워드: 딥러닝 융합 영상처리

검색결과 71건 처리시간 0.029초

고정 카메라 기반 비디오 모니터링 환경에서 딥러닝 객체 탐지기 결과를 활용한 실시간 전경 및 시설물 추출 (Real-Time Foreground and Facility Extraction with Deep Learning-based Object Detection Results under Static Camera-based Video Monitoring)

  • 이나연;손승욱;유승현;정용화;박대희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.711-714
    • /
    • 2021
  • 고정 카메라 환경에서 전경과 배경 간 픽셀값의 차를 이용하여 전경을 추출하기 위해서는 정확한 배경 영상이 필요하다. 또한, 프레임마다 변화하는 실제 배경과 맞추기 위해 배경 영상을 지속해서 갱신할 필요가 있다. 본 논문에서는 정확한 배경 영상을 생성하기 위해 실시간 처리가 가능한 딥러닝 기반 객체 탐지기의 결과를 입력받아 영상 처리에 활용함으로써 배경을 생성 및 지속적으로 갱신하고, 획득한 배경 정보를 이용해 전경을 추출하는 방법을 제안한다. 먼저, 고정 카메라에서 획득되는 비디오 데이터에 딥러닝 기반 객체 탐지기를 적용한 박스 단위 객체 탐지 결과를 지속적으로 입력받아 픽셀 단위의 배경 영상을 갱신하고 개선된 배경 영상을 도출한다. 이후, 획득한 배경 영상을 이용하여 더 정확한 전경 영상을 획득한다. 또한, 본 논문에서는 시설물에 가려진 객체를 더 정확히 탐지하기 위해서 전경 영상을 이용하여 시설물 영상을 추출하는 방법을 제안한다. 실제 돈사에 설치된 카메라로 부터 획득된 12시간 분량의 비디오를 이용하여 실험한 결과, 제안 방법을 이용한 전경과 시설물 추출이 효과적임을 확인하였다.

딥러닝 기술을 이용한 3차원 객체 추적 기술 리뷰 (A Review of 3D Object Tracking Methods Using Deep Learning)

  • 박한훈
    • 융합신호처리학회논문지
    • /
    • 제22권1호
    • /
    • pp.30-37
    • /
    • 2021
  • 카메라 영상을 이용한 3차원 객체 추적 기술은 증강현실 응용 분야를 위한 핵심 기술이다. 영상 분류, 객체 검출, 영상 분할과 같은 컴퓨터 비전 작업에서 CNN(Convolutional Neural Network)의 인상적인 성공에 자극 받아, 3D 객체 추적을 위한 최근의 연구는 딥러닝(deep learning)을 활용하는 데 초점을 맞추고 있다. 본 논문은 이러한 딥러닝을 활용한 3차원 객체 추적 방법들을 살펴본다. 딥러닝을 활용한 3차원 객체 추적을 위한 주요 방법들을 설명하고, 향후 연구 방향에 대해 논의한다.

지능형 영상 판독 시스템 설계를 위한 전처리 및 구현 (Pre-processing and implementation for intelligent imagery interpretation system)

  • 전태현;나형선;안진현;임동혁
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 춘계학술발표대회
    • /
    • pp.305-307
    • /
    • 2021
  • 군사 분야에서 사용하는 기존 영상융합체계는 영상에서 미확인 개체를 식별하는 Activity-Based Intelligence(ABI) 기술과 객체들에 대한 지식정보를 관리하는 Structured Observation Management(SOM) 기술을 연동하여 다양한 관점에서 분석하고 있다. 그러나 군사적인 목적을 달성하기 위해서는 미래 정보가 중요하기 때문에 주변 맥락 정보를 통합하여 분석해야 할 필요성이 있으며 이를 위해 주변맥락 정보를 분석하는 딥러닝 모델 적용이 필요하다. 본 논문에서는 딥러닝 모델 기반 영상 판독 시스템 구축을 하기 위한 전처리 과정을 설계하였다. pyhwp 라이브러리를 이용하여 영상 정보 판독 데이터를 파싱 및 전처리를 진행하여 데이터 구축을 진행하였다.

딥러닝 표정 인식을 통한 운동 영상 유튜브 하이라이트 업로드 자동화(RPA) 설계 (Design of Automation (RPA) for uploading workout videos to YouTube highlights through deep learning facial expression recognition)

  • 신동욱;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.655-657
    • /
    • 2022
  • 본 논문은 유튜브에 업로드 된 운동 영상을 시청하는 사람의 얼굴 영역을 YoloV3을 이용하여 얼굴 영상에서 눈 및 입술영역을 검출하는 방법을 연구하여, YoloV3은 딥 러닝을 이용한 물체 검출 방법으로 기존의 특징 기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 영상을 다차원적으로 분리하고 클래스 확률(Class Probability)을 적용하여 하나의 회귀 문제로 접근한다. 영상의 1 frame을 입력 이미지로 CNN을 통해 텐서(Tensor)의 그리드로 나누고, 각 구간에 따라 객체인 경계 박스와 클래스 확률을 생성해 해당 구역의 눈과 입을 검출한다. 검출된 이미지 감성 분석을 통해, 운동 영상 중 하이라이트 부분을 자동으로 선별하는 시스템을 설계하였다.

딥러닝을 이용한 WTCI 설태량 평가를 위한 유효성 검증 (An Effectiveness Verification for Evaluating the Amount of WTCI Tongue Coating Using Deep Learning)

  • 이우범
    • 융합신호처리학회논문지
    • /
    • 제20권4호
    • /
    • pp.226-231
    • /
    • 2019
  • 한방 설진에서 WTCI(Winkel Tongue Coating Index) 설태 평가는 환자의 설태량 측정을 위한 중요한 객관적인 지표 중의 하나이다. 그러나 이전의 WTCI 설태 평가는 혀영상으로부터 설태 부분을 추출하여 전체 혀 영역에서 추출된 설태 영역의 비율을 정량적으로 측정하는 방법이 대부분으로 혀영상의 촬영 조건이나 설태 인식 성능에 의해서 비객관적 측정의 문제점이 있었다. 따라서 본 논문에서는 빅데이터를 기반으로 하는 인공지능의 딥러닝 방법을 적용하여 설태량을 분류하여 평가하는 딥러닝 기반의 WTCI 평가 방법을 제안하고 검증한다. 설태 평가 방법에 있어서 딥러닝의 유효성 검증을 위해서는 CNN을 학습 모델로 사용하여 소태, 박태, 후태의 3가지 유형의 설태량을 분류한다. 설태 샘플 영상을 학습 및 검증 데이터로 구축하여 CNN 기반의 딥러닝 모델로 학습한 결과 96.7%의 설태량 분류 정확성을 보였다.

Inception V3를 이용한 뇌 실질 MRI 영상 분류의 정확도 평가 (Accuracy Evaluation of Brain Parenchymal MRI Image Classification Using Inception V3)

  • 김지율;예수영
    • 융합신호처리학회논문지
    • /
    • 제20권3호
    • /
    • pp.132-137
    • /
    • 2019
  • 의료영상으로 생성된 데이터의 양은 전문적인 시각적 분석 한계를 점점 초과하여, 자동화된 의료영상 분석의 필요성이 증가되고 있는 실정이다. 이러한 이유 등으로 인하여 본 논문에서는 정상소견과 종양소견을 보이는 각각의 뇌 실질 MRI 의료영상을 이용하여 Inception V3 딥러닝 모델을 이용한 종양 유무에 따른 분류 및 정확도를 평가하였다. 연구 결과, 딥러닝 모델의 정확도 평가는 학습 데이터 세트의 경우 90%, 검증 데이터 세트의 경우 86%의 정확도를 나타내었다. 손실률 평가에서는 학습 데이터 세트의 경우 0.56, 검증 데이터 세트의 경우 1.28의 손실률을 나타내었다. 향 후 연구에서는 딥러닝 모델의 성능 향상 및 평가의 신뢰성 확보를 위하여 공개된 의료영상의 데이터를 충분히 확보하고, 라벨링 분류 작업을 통한 라벨링의 정확도를 개선하여 모델링을 구현해 볼 필요가 있다고 사료된다.

Balanced Attention Mechanism을 활용한 CG/VR 영상의 초해상화 (CG/VR Image Super-Resolution Using Balanced Attention Mechanism)

  • 김소원;박한훈
    • 융합신호처리학회논문지
    • /
    • 제22권4호
    • /
    • pp.156-163
    • /
    • 2021
  • 어텐션(Attention) 메커니즘은 딥러닝 기술을 활용한 다양한 컴퓨터 비전 시스템에서 활용되고 있으며, 초해상화(Super-resolution)를 위한 딥러닝 모델에도 어텐션 메커니즘을 적용하고 있다. 하지만 어텐션 메커니즘이 적용된 대부분의 초해상화 기법들은 Real 영상의 초해상화에만 초점을 맞추어서 연구되어, 어텐션 메커니즘을 적용한 초해상화가 CG나 VR 영상 초해상화에도 유효한지는 알기 어렵다. 본 논문에서는 최근에 제안된 어텐션 메커니즘 모듈인 BAM(Balanced Attention Mechanism) 모듈을 12개의 초해상화 딥러닝 모델에 적용한 후, CG나 VR 영상에서도 성능 향상 효과를 보이는지 확인하는 실험을 진행하였다. 실험 결과, BAM 모듈은 제한적으로 CG나 VR 영상의 초해상화 성능 향상에 기여하였으며, 데이터 특징과 크기, 그리고 네트워크 종류에 따라 성능 향상도가 달라진다는 것을 확인할 수 있었다.

돼지의 빠른 자세 결정과 머리 제거를 위한 영상처리 및 딥러닝 기법 (Image Processing and Deep Learning Techniques for Fast Pig's Posture Determining and Head Removal)

  • 안한세;최원석;박선화;정용화;박대희
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제8권11호
    • /
    • pp.457-464
    • /
    • 2019
  • 양돈 업계에서 돼지의 무게는 돼지의 건강이나 성장 상태, 출하 여부, 사육 환경, 사료 배급을 결정하는 주요 요인 중 하나이며, 따라서 돼지의 무게를 측정하는 것은 돼지의 생산성 측면에서 중요한 문제이다. Top-view 카메라에서 획득한 영상으로부터 돼지의 픽셀 수를 이용하여 돼지의 무게를 추정하고자 할 때, 정확한 픽셀 수 측정에 영향을 주는 돼지의 자세를 결정할 필요가 있으며, 픽셀 수 측정에 영향을 주는 머리부분을 제거할 필요가 있다. 본 논문에서는 빠른 영상처리 기법을 이용하여 돼지의 자세를 빠르게 결정하고, 딥러닝 기반의 빠른 객체탐지 기법인 YOLO를 이용하여 돼지 머리 위치를 파악한 후, 경량화된 영상처리 기법을 이용하여 돼지의 머리와 몸통 경계를 획득하고 머리를 제거하는 방법을 제안한다. 즉, 빠른 영상처리 기법으로 이진화된 돼지의 영상 데이터에서 돼지의 몸통 중심점으로부터 돼지의 외곽선까지의 길이를 비교하여 돼지의 자세를 결정한다. 또한, 돼지의 머리 위치를 탐지하기 위하여 YOLO를 이용하여 영상 데이터 내의 돼지의 머리, 몸통, 엉덩이의 위치를 학습시킨 후, 곧은 자세의 돼지 머리 위치를 획득하고 머리 바깥 영역을 제거한다. 마지막으로 Convex-hull을 이용하여 돼지의 머리와 몸통 경계를 추정한 후, 머리를 제거한다. 실험 결과, 0.98의 정확도와 250.00fps의 수행속도로 돼지의 자세를 결정하였으며, 0.96의 정확도와 48.97fps의 수행속도로 돼지의 머리탐지 및 제거가 가능함을 확인하였다.

영상 데이터 특징 커버리지 기반 딥러닝 모델 검증 기법 (Deep Learning Model Validation Method Based on Image Data Feature Coverage)

  • 임창남;박예슬;이정원
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권9호
    • /
    • pp.375-384
    • /
    • 2021
  • 딥러닝 기법은 영상 처리 분야에서 높은 성능을 입증 받아 다양한 분야에서 적용되고 있다. 이러한 딥러닝 모델의 검증에 가장 널리 사용되는 방법으로는 홀드아웃 검증 방법, k-겹 교차 검증 방법, 부트스트랩 방법 등이 있다. 이러한 기존의 기법들은 데이터 셋을 분할하는 과정에서 클래스 간의 비율에 대한 균형을 고려하지만, 같은 클래스 내에서도 존재하는 다양한 특징들의 비율은 고려하지 않고 있다. 이러한 특징들을 고려하지 않을 경우, 일부 특징에 편향된 검증 결과를 얻게 될 수 있다. 따라서 본 논문에서는 기존 검증 방법들을 개선하여 영상 분류를 위한 데이터 특징 커버리지 기반의 딥러닝 모델 검증 기법을 제안한다. 제안하는 기법은 딥러닝 모델의 학습과 검증을 위한 훈련 데이터 셋과 평가 데이터 셋이 전체 데이터 셋의 특징을 얼마나 반영하고 있는지 수치로 측정할 수 있는 데이터 특징 커버리지를 제안한다. 이러한 방식은 전체 데이터 셋의 특징을 모두 포함하도록 커버리지를 보장하여 데이터 셋을 분할할 수 있고, 모델의 평가 결과를 생성한 특징 군집 단위로 분석할 수 있다. 검증결과, 훈련 데이터 셋의 데이터 특징 커버리지가 낮아질 경우, 모델이 특정 특징에 편향되게 학습하여 모델의 성능이 낮아지며, Fashion-MNIST의 경우 정확도가 8.9%까지 차이나는 것을 확인하였다.

3D 히스토그램 기반 영역분할을 이용한 흉부 X선 영상 품질 평가 (Quality Evaluation of Chest X-ray Images using Region Segmentation based on 3D Histogram)

  • 최현진;배수빈;박예슬;이정원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.903-906
    • /
    • 2021
  • 인공지능 기술 발전으로, 의료영상 분야에서도 딥러닝 기반 질병 진단 연구가 활발히 진행되고 있다. 딥러닝 모델 개발 시, 학습 데이터 품질은 모델의 성능과 신뢰성에 매우 큰 영향을 미친다. 그러나 의료 분야의 경우 도메인 지식에 대한 진입 장벽이 높아 개발자가 학습에 사용되는 의료영상 데이터의 품질을 평가하기 어렵다. 이로 인해, 많은 의료영상 분야에서는 각 분야의 특성(질병의 종류, 관찰 아나토미 등)에 따른 영상 품질 평가 방법을 제시해왔다. 그러나 기존의 방법은 특정 질병에 초점이 맞춰져, 일반화된 품질 평가 기준을 제시하고 있지 않다. 따라서 본 논문에서는 대부분의 흉부 질환을 진단하기 위한 흉부 X선 영상의 품질을 평가할 수 있는 기준을 제안한다. 우선, 흉부 X선 영상을 대상으로 관찰된 영역인 심장, 횡격막, 견갑골, 폐 등을 분할하여, 3D 히스토그램을 기반으로 각 영역별 통계적인 정밀 품질 평가 기준을 제안한다. 본 연구에서는 JSRT, Chest 14의 오픈 데이터셋을 활용하여 적용 실험을 수행하였으며, 민감도는 97.6%, 특이도는 92.8%의 우수한 성능을 확인하였다.