• Title/Summary/Keyword: 딥러닝 융합 영상처리

Search Result 72, Processing Time 0.049 seconds

RGB-Depth 카메라와 Deep Convolution Neural Networks 기반의 실시간 사람 양손 3D 포즈 추정 (Real-time 3D Pose Estimation of Both Human Hands via RGB-Depth Camera and Deep Convolutional Neural Networks)

  • 박나현;지용빈;기건;김태연;박혜민;김태성
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 추계학술발표대회
    • /
    • pp.686-689
    • /
    • 2018
  • 3D 손 포즈 추정(Hand Pose Estimation, HPE)은 스마트 인간 컴퓨터 인터페이스를 위해서 중요한 기술이다. 이 연구에서는 딥러닝 방법을 기반으로 하여 단일 RGB-Depth 카메라로 촬영한 양손의 3D 손 자세를 실시간으로 인식하는 손 포즈 추정 시스템을 제시한다. 손 포즈 추정 시스템은 4단계로 구성된다. 첫째, Skin Detection 및 Depth cutting 알고리즘을 사용하여 양손을 RGB와 깊이 영상에서 감지하고 추출한다. 둘째, Convolutional Neural Network(CNN) Classifier는 오른손과 왼손을 구별하는데 사용된다. CNN Classifier 는 3개의 convolution layer와 2개의 Fully-Connected Layer로 구성되어 있으며, 추출된 깊이 영상을 입력으로 사용한다. 셋째, 학습된 CNN regressor는 추출된 왼쪽 및 오른쪽 손의 깊이 영상에서 손 관절을 추정하기 위해 다수의 Convolutional Layers, Pooling Layers, Fully Connected Layers로 구성된다. CNN classifier와 regressor는 22,000개 깊이 영상 데이터셋으로 학습된다. 마지막으로, 각 손의 3D 손 자세는 추정된 손 관절 정보로부터 재구성된다. 테스트 결과, CNN classifier는 오른쪽 손과 왼쪽 손을 96.9%의 정확도로 구별할 수 있으며, CNN regressor는 형균 8.48mm의 오차 범위로 3D 손 관절 정보를 추정할 수 있다. 본 연구에서 제안하는 손 포즈 추정 시스템은 가상 현실(virtual reality, VR), 증강 현실(Augmented Reality, AR) 및 융합 현실 (Mixed Reality, MR) 응용 프로그램을 포함한 다양한 응용 분야에서 사용할 수 있다.

Fourier Ptychographic Microscopy 영상에서의 딥러닝 기반 디지털 염색 방법 연구 (Deep Learning Based Digital Staining Method in Fourier Ptychographic Microscopy Image)

  • 황석민;김동범;김유정;김여린;이종하
    • 융합신호처리학회논문지
    • /
    • 제23권2호
    • /
    • pp.97-106
    • /
    • 2022
  • 본 연구에서 세포를 분별하기 위해 H&E 염색이 필요하다. 그러나 직접 염색하면 많은 비용과 시간이 필요하다. H&E 염색되지 않은 세포의 Phase image에서 H&E 염색이 된 세포의 Amplitude image로 변환 하는 것이 목적이다. FPM으로 촬영한 Image data를 가지고 Matlab을 이용해 매개변수를 변경해 Phase image와 Amplitude image를 만들었다. 정규화를 통해 육안으로 식별이 가능한 이미지를 얻었다. GAN 알고리즘을 이용해 Phase image를 기반으로 Real Amplitude image와 비슷한 Fake Amplitude image를 만들고 Fake Amplitude image를 가지고 MASK R-CNN을 이용하여 세포를 분별하여 객체화를 통해 구분했다. 연구 결과 D loss의 max는 3.3e-1, min은 6.8e-2, G loss max는 6.9e-2, min은 2.9e-2, A loss는 max 5.8e-1, min은 1.2e-1, Mask R-CNN max는 1.9e0, min은 3.2e-1이다.

YOLO 기반 개체 검출과 Node.js 서버를 이용한 반려견 행동 분류 시스템 구현 (Implementation of a Classification System for Dog Behaviors using YOLI-based Object Detection and a Node.js Server)

  • 조용화;이혁재;김영훈
    • 융합신호처리학회논문지
    • /
    • 제21권1호
    • /
    • pp.29-37
    • /
    • 2020
  • 본 논문은 실시간 영상 분석을 통해서 반려견에 대한 객체를 추출해 내고, 추출된 이미지로부터 반려견 행동을 분류하는 방법을 구현한다. 반려견 객체 탐지를 위해서 Darknet YOLO를 사용하였으며, 추출된 이미지로부터 행동 패턴 분류는 구글에서 제공하고 있는 Teachable Machine을 이용하였다. 학습된 Teachable Machine은 구글 드라이브에 저장되어 node.js 서버 상에서 ml5.js로 구현하여 사용할 수 있다. 분류된 행동 패턴 결과는 사용자의 스마트 폰 또는 PC로 실시간 전송되며, 언제 어디서든 확인 가능할 수 있게 node.js 서버에서 socket.io 모듈을 사용해서 상호반응 웹 서버를 구현하였다.

보행자 및 차량 검지를 위한 레이더 영상 융복합 시스템 연구 (A Study on Radar Video Fusion Systems for Pedestrian and Vehicle Detection)

  • 조성윤;윤여환
    • 한국인터넷방송통신학회논문지
    • /
    • 제24권1호
    • /
    • pp.197-205
    • /
    • 2024
  • 자율주행 자동차 개발 및 상용화에 있어서 주행안전도 확보가 가장 중요한 시점에서 이를 위해 전방 및 주행차량 주변에 존재하는 다양한 정적/동적 차량의 인식과 검출 성능을 고도화 및 최적화하기 위한 AI, 빅데이터 기반 알고리즘개발 등이 연구되고 있다. 하지만 레이더와 카메라의 고유한 장점을 활용하여 동일한 차량으로 인식하기 위한 연구 사례들이 많이 있지만, 딥러닝 영상 처리 기술을 이용하지 않거나, 레이더의 성능상의 문제로 짧은 거리만 동일한 표적으로 감지하고 있다. 따라서 레이더 장비와 카메라 장비에서 수집할 수 있는 데이터셋을 구성하고, 데이터셋의 오차를 계산하여 동일한 표적으로 인식하는 융합 기반 차량 인식 방법이 필요하다. 본 논문에서는 레이더와 CCTV(영상) 설치 위치에 따라 동일한 객체로 판단하기에 데이터 오차가 발생하기 때문에 설치한 위치에 따라 위치 정보를 연동할 수 있는 기술 개발을 목표로 한다.

추천 분야에서의 지식 그래프 기반 어텐션 네트워크 모델 성능 향상 기법 연구 (A Study on Augmentation Method for Improving the Performance of the Knowledge Graph Based Attention Network Model)

  • 김경태;민찬욱;김진우;안진현;전희국;임동혁
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.603-605
    • /
    • 2022
  • 추천시스템은 개개인의 성향에 따른 맞춤화 추천이 가능하기 때문에 음악, 영상, 뉴스 등 많은 분야에서 관심을 받고 있다. 일반적인 추천시스템 모델은 블랙박스 모델이기 때문에 추천 결과에 따른 원인 도출을 할 수 없다. 하지만 XAI 의 모델은 이러한 블랙박스 모델의 단점을 해결하고자 제안되었다. 그 중 KGAT 는 Attention Score 를 기반으로 추천 결과에 따른 원인을 알 수 있다. 이와 같은 AI, XAI 등의 딥 러닝 모델에서 각각의 활성화 함수는 상황에 따라 상이한 성능을 나타낸다. 이러한 이유로 인해 데이터에 맞는 활성화 함수를 적용해보는 다양한 시도가 필요하다. 따라서 본 논문은 XAI 추천시스템 모델인 KGAT 의 성능 개선을 위해 여러 활성화 함수를 적용해보고, 실험을 통해 수정한 모델의 성능이 개선됨을 보인다.

딥러닝 모델을 이용한 비전이미지 내의 대상체 분류에 관한 연구 (A Study on The Classification of Target-objects with The Deep-learning Model in The Vision-images)

  • 조영준;김종원
    • 한국산학기술학회논문지
    • /
    • 제22권2호
    • /
    • pp.20-25
    • /
    • 2021
  • 본 논문은 Deep-learning 기반의 검출모델을 이용하여 연속적으로 입력되는 비디오 이미지 내의 해당 대상체를 의미별로 분류해야하는 문제에 대한 구현방법에 관한 논문이다. 기존의 대상체 검출모델은 Deep-learning 기반의 검출모델로서 유사한 대상체 분류를 위해서는 방대한 DATA의 수집과 기계학습과정을 통해서 가능했다. 대상체 검출모델의 구조개선을 통한 유사물체의 인식 및 분류를 위하여 기존의 검출모델을 이용한 분류 문제를 분석하고 처리구조를 변경하여 개선된 비전처리 모듈개발을 통해 이를 기존 인식모델에 접목함으로써 대상체에 대한 인식모델을 구현하였으며, 대상체의 분류를 위하여 검출모델의 구조변경을 통해 고유성과 유사성을 정의하고 이를 검출모델에 적용하였다. 실제 축구경기 영상을 이용하여 대상체의 특징점을 분류의 기준으로 설정하여 실시간으로 분류문제를 해결하여 인식모델의 활용성 검증을 통해 산업에서의 활용도를 확인하였다. 기존의 검출모델과 새롭게 구성한 인식모델을 활용하여 실시간 이미지를 색상과 강도의 구분이 용이한 HSV의 칼라공간으로 변환하는 비전기술을 이용하여 기존모델과 비교 검증하였고, 조도 및 노이즈 환경에서도 높은 검출률을 확보할 수 있는 실시간 환경의 인식모델 최적화를 위한 선행연구를 수행하였다.

공공연구성과 실용화를 위한 데이터 기반의 기술 포트폴리오 분석: 빅데이터 및 인공지능 분야를 중심으로 (Data-Driven Technology Portfolio Analysis for Commercialization of Public R&D Outcomes: Case Study of Big Data and Artificial Intelligence Fields)

  • 전은지;이채원;류제택
    • 한국빅데이터학회지
    • /
    • 제6권2호
    • /
    • pp.71-84
    • /
    • 2021
  • 빅데이터 및 인공지능 기술은 4차 산업혁명에 핵심적인 기술이나, 국내 중소·중견 기업의 빅데이터 분석 활용과 복합 인공지능 분야의 기술경쟁력 확보가 미흡한 상황이다. 따라서 빅데이터 및 인공지능 분야의 기술사업화를 통해 산업군 전반의 경쟁력을 강화하는 것이 중요하다. 본 연구에서는 기술 포트폴리오 분석을 통해 공공연구성과 실용화 우선순위를 평가하고자 한다. 우선 공공연구성과 정보에 대해 앙상블 기법을 적용한 딥러닝 모델을 사용하여 과제의 6T 분류 결측값을 개선하였다. 이후 6T 분야별 빅데이터 및 인공지능융합 분야를 대상으로 토픽 모델링을 진행하여 10개의 세부기술분야를 도출하였다. 세부기술분야별 기술사업화 가능성을 판단하기 위해 기술활동성과 기술효율성을 새롭게 정의하고 측정하였다. 두 축을 기반으로 포트폴리오를 4가지의 유형으로 구분하여 기술사업화 최우선 고려 대상, 장기 투자가 필요한 기술분야 등을 제안하였다. '영상 및 이미지 기반의 진단 기술'은 기술활동성 및 기술효율성이 높아 시장의 수요와 사업화 역량 모두 이상적인 수준으로 나타났다. 이처럼 체계적인 산업·기술시장 분석을 통해 공공연구성과 창출 기술의 활용을 활성화할 수 있으며 중소·중견으로의 효율적인 기술 이전 및 사업화 추진이 가능하다.

곡면 용기에 표시된 성분표 자동 인식을 위한 인공지능 기반 스마트폰 애플리케이션 (Deep-Learning-based smartphone application for automatic recognition of ingredients on curved containers)

  • 정희용;신춘성
    • 한국산업정보학회논문지
    • /
    • 제28권6호
    • /
    • pp.29-43
    • /
    • 2023
  • 소비자는 본인의 건강을 위해서 화장품 및 식품의 성분을 보고 알레르기 유발이나, 주의 성분이 포함되어 있는지 여부를 확인 후 구매를 해야 하지만, 실상은 포장지나 패키징 용기에서 표기가 작고 상세 성분 표기를 찾기 어려우며 바쁜 일상 가운데 일일이 확인하는 과정이 소홀해지기 쉽다. 이에 본 논문은 소비자에게 용기에 부착된 성분을 보다 알기 쉽게 전달하도록 곡면 용기에 표시된 배합 성분표를 자동으로 인식하기 위한 인공지능 기반 스마트폰 애플리케이션을 제안한다. 제안한 스마트폰 기반 성분표 자동인식 어플리케이션은 곡면 용기에 표시된 성분표를 인식할 수 있도록 텍스트 추출 후 원근변환을 통해 인식을 정확도 95% 달성하였다. 또한, 성분명이 곡면에 표시되기 때문에 변형되거나 길이가 길어서 줄 바꿈이 있는 텍스트를 위해 텍스트영역의 경계영역과 위치를 계산하여 처리하였다. 이를 통해 제안한 스마트폰 어플리케이션은 내장된 카메라를 통해 용기에 부착된 성분표 영상을 획득한 뒤, 성분과 관련된 텍스트를 발견하고 인식하여 배합제한성분 정보를 추출하도록 하였다. 마지막으로 다양한 테스트를 통하여 개발한 애플리케이션으로 원통형 곡면 용기에 담긴 화장품의 성분표 인식에 문제가 없다는 것을 검증하였다.

우회전 차량 사고 예방을 위한 객체 탐지 및 경고 모델 연구 (A Study on Object Detection and Warning Model for the Prevention of Right Turn Car Accidents)

  • 조상준;신성욱;노명재
    • 디지털정책학회지
    • /
    • 제2권4호
    • /
    • pp.33-39
    • /
    • 2023
  • 교차로에서의 우회전 교통사고가 지속적으로 발생하면서 우회전 교통사고에 대한 대책 마련이 촉구되고 있다. 이에 우회전 지역의 CCTV 영상에서의 객체 탐지를 통해 보행자의 유무를 탐지하고 이를 디스플레이에 경고 문구를 출력해 운전자에게 알리는 기술을 개발하였다. 객체 탐지 모델 중 하나인 YOLO(You Only Look Once) 모델을 이용하여 객체 탐지의 성능평가를 확인하고, 추가적인 후처리 알고리즘을 통해 오인식 문제 해결 및 보행자 확인 시 경고 문구를 출력하는 알고리즘을 개발 하였다. 보행자 혹은 객체를 인식하여 경고 문구를 출력하는 정확도는 82% 수준으로 측정되었으며 이를 통해 우회전 사고 예방에 기여할 수 있을 것으로 예상된다.

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.