• 제목/요약/키워드: 딥러닝 기반 물체 인식

검색결과 44건 처리시간 0.029초

시각장애인을 위한 딥러닝기반 심볼인식 (Deep learning based symbol recognition for the visually impaired)

  • 박상헌;전태재;김상혁;이상윤;김주완
    • 한국정보전자통신기술학회논문지
    • /
    • 제9권3호
    • /
    • pp.249-256
    • /
    • 2016
  • 최근 시각장애인 및 교통약자의 자유로운 보행을 보장하기 위한 많은 기술들이 연구되고 있다. 자유로운 보행을 위한 장치로는 영상카메라, 초음파센서 및 가속도 센서 등을 이용하는 스마트 지팡이와 스마트 안경 관련 기술이 있다. 대표적인 기술로는 물체를 식별하여 장애물을 검출하고 보행 가능 영역을 추출하는 기술, 랜드마크 심볼 정보를 인식하여 주위 환경 정보를 주는 기술 등 여러 가지 기술이 개발되고 있다. 본 논문에서는 시각장애인에게 필요한 시설의 대표 심볼을 선정하여 착용한 영상 장치의 정보로부터 심볼을 인식하는 알고리즘을 딥러닝 기술을 이용하여 연구하였다. 그 결과로 딥러닝 영상처리 분야에서 사용되는 CNN(Convolutional Neural Network)기법을 사용하여 서로 다른 딥러닝 구조를 실험을 통하여 비교하고 분석하였다.

딥러닝 표정 인식을 통한 운동 영상 유튜브 하이라이트 업로드 자동화(RPA) 설계 (Design of Automation (RPA) for uploading workout videos to YouTube highlights through deep learning facial expression recognition)

  • 신동욱;문남미
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.655-657
    • /
    • 2022
  • 본 논문은 유튜브에 업로드 된 운동 영상을 시청하는 사람의 얼굴 영역을 YoloV3을 이용하여 얼굴 영상에서 눈 및 입술영역을 검출하는 방법을 연구하여, YoloV3은 딥 러닝을 이용한 물체 검출 방법으로 기존의 특징 기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 영상을 다차원적으로 분리하고 클래스 확률(Class Probability)을 적용하여 하나의 회귀 문제로 접근한다. 영상의 1 frame을 입력 이미지로 CNN을 통해 텐서(Tensor)의 그리드로 나누고, 각 구간에 따라 객체인 경계 박스와 클래스 확률을 생성해 해당 구역의 눈과 입을 검출한다. 검출된 이미지 감성 분석을 통해, 운동 영상 중 하이라이트 부분을 자동으로 선별하는 시스템을 설계하였다.

뇌파 기반 감정 분류를 활용한 작업자 보호를 위한 웹 플랫폼 시스템 개발 (Development of a Web Platform System for Worker Protection using EEG Emotion Classification)

  • 서쌍희
    • 사물인터넷융복합논문지
    • /
    • 제9권6호
    • /
    • pp.37-44
    • /
    • 2023
  • 인터스트리4.0의 주요 기술인 인간-로봇 협업은 작업자의 안전을 보장하기 위한 추가적인 조치들이 필요하다. 협동로봇과 작업자간 충돌을 회피하는 기존 방식은 주로 로봇에 부착된 센서와 카메라를 기반으로 총돌을 탐지한다. 이러한 방식은 로봇, 사람 물체를 지속적으로 추적하고 충돌회피를 위한 복잡한 알고리즘이 필요하며, 작업 환경 변화에 빠르게 대응하지 못하는 단점이 있다. 본 논문은 인간과 로봇이 협업하는 과정에서 작업자가 위험을 느낄 때의 감정을 인식하여 협동로봇과의 충돌을 방지할 수 있는 웹 기반 플랫폼을 개발하였다. 이를 위해 웨어러블 뇌파장치를 이용하여 감정 관련 뇌파를 수집하고 저장하는 웹 기반 애플리케이션을 개발하였으며, 중립/긍정/부정 감정의 특징을 추출하고 분류하는 딥러닝 모델을 제안하였다. 또한 분류된 감정에 따라 모터동작을 제어하는 사물인터넷 인터페이스 프로그램을 개발하였다. 구현된 시스템의 성능분석을 위해 공개 데이터세트와 실제 수집된 데이터 세트를 사용하여 제안한 딥러닝 모델의 성능을 분석하였다. 공개 데이터 세트의 경우 정확도는 96.8%이며, 실제 수집 데이터세트의 경우 정확도는 70.7%이다.

YOLOv4 기반의 소형 물체탐지기법을 이용한 건설도면 내 철강 자재 문자 검출 및 인식기법 (Character Detection and Recognition of Steel Materials in Construction Drawings using YOLOv4-based Small Object Detection Techniques)

  • 심지우;우희조;김윤환;김응태
    • 방송공학회논문지
    • /
    • 제27권3호
    • /
    • pp.391-401
    • /
    • 2022
  • 최근 딥러닝 기반의 객체 검출 및 인식 연구가 발전해가면서 산업 및 실생활에 적용되는 범위가 넓어지고 있다. 건설 분야에도 딥러닝 기반의 시스템이 도입되고 있지만 아직은 미온적이다. 건설 도면에서 자재 산출이 수작업으로 이뤄지고 있어 많은 소요시간과 부정확한 적산 결과로 잘못된 물량산출의 거래가 생길 수 있다. 이를 해결하기 위해서 빠르고 정확한 자동 도면 인식시스템이 필요하다. 따라서 본 논문은 건설도면 내 철강 자재를 검출하고 인식하는 인공지능기반 자동 도면 인식 적산 시스템을 제안한다. 빠른 속도의 YOLOv4 기반에 소형 객체 검출성능을 향상하기 위한 복제 방식의 데이터 증강기법과 공간집중 모듈을 적용하였다. 검출한 철강 자재 영역을 문자 인식한 결과를 토대로 철강 자재를 적산한다. 실험 결과 제안한 방식은 기존 YOLOv4 대비 정확도와 정밀도를 각각 1.8%, 16% 증가시켰다. 제안된 방식의 Precision은 0.938, Recall은 1, AP0.5는 99.4%, AP0.5:0.95 68.8%의 향상된 결과를 얻었다. 문자 인식은 기존 데이터를 사용한 인식률 75.6%에 비해 건설도면에 사용되는 폰트에 맞는 데이터 세트를 구성하여 학습한 결과 99.9%의 인식률을 얻었다. 한 이미지 당 평균 소요시간은 검출 단계는 0.013초, 문자 인식은 0.65초, 적산 단계는 0.16초로 총 0.84초의 결과를 얻었다.

해상 객체 검출 고속 처리를 위한 영상 전처리 알고리즘 설계와 딥러닝 기반의 통합 시스템 (Design of Video Pre-processing Algorithm for High-speed Processing of Maritime Object Detection System and Deep Learning based Integrated System)

  • 송현학;이효찬;이성주;전호석;임태호
    • 인터넷정보학회논문지
    • /
    • 제21권4호
    • /
    • pp.117-126
    • /
    • 2020
  • 해상 객체 인식은 자율운항선박(MASS)의 지능형 보조 시스템으로써, 선장이 육안으로 해상 주변의 충돌 위험성이 있는 부유물을 확인하던 정보를 컴퓨터를 통해 자동으로 인식하여 사람이 확인하는 방법과 유사한 정확도로 인지하는 방법을 말한다. 선박 주변의 물체를 인식하는 방법으로 기존에는 레이더나 소나와 같은 장치로부터 수집된 정보를 통해 확인하였지만, 인공지능의 기술이 발달하면서 선박 지능형 CCTV를 통해 운항 항로에 있는 다양한 부유물을 인식하는 것이 가능하다. 하지만, 자율 선박의 다양한 요구사항과 복잡성 때문에 영상 데이터의 처리속도가 느려지게 된다면 원활한 서비스 지원은 물론 안전성도 보장할 수 없게 된다. 이러한 문제를 해결하고자 본 논문에서는 해상 객체를 검출하는 데 있어 영상 데이터의 연산량을 최소화하여 처리속도를 높이기 위한 연구를 진행하였다. 해상 객체 인식의 관심 영역을 확보하기 위해서는 일반적으로 수평선을 찾는데 기존 연구들은 허프 변환 알고리즘을 활용하지만 본 논문에서는 속도를 개선하기 위해 이진화 알고리즘을 최적화하여 실제 객체의 위치와 유사한 영역을 찾는 새로운 방법을 제안한다. 또한, 제안하는 방법의 유용성을 증명하기 위해 딥러닝 CNN을 활용하여 해상 객체 인식 시스템을 구현함으로써 알고리즘의 성능을 평가하였다. 제안하는 알고리즘은 기존 방법의 인식 정확도를 유지하면서 약 4배 이상의 빠른 성능을 얻을 수 있었다.

컴퓨터 비전 기반 무인 버스 운행시스템 (Computer vision based unmanned bus operating system)

  • 이용한;김범영;이신효;이지훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.716-719
    • /
    • 2017
  • 본 시스템은 자율 주행 버스를 위한 시스템이다. 딥러닝(Deep Learning) 기반 컴퓨터 비전 기술을 이용해 차선과 물체 인식을 하여 버스를 제어하는 방식으로 자율 주행을 가능하게 하는 시스템으로 교통비 완화 및 안정성 증대를 기대할 수 있다.

기계 학습 알고리즘을 이용한 효과적인 대상 영역 분할 (Effective Detection of Target Region Using a Machine Learning Algorithm)

  • 장석우;이경주;정명희
    • 한국산학기술학회논문지
    • /
    • 제19권5호
    • /
    • pp.697-704
    • /
    • 2018
  • 다양한 종류의 컬러 영상 콘텐츠에 포함되어 있는 사람의 얼굴 영역은 다른 사람들과 특정인을 구별해 줄 수 있는 개인의 정보에 해당하므로, 입력된 컬러 영상으로부터 가려지지 않은 사람의 얼굴 영역들을 정확하게 검출하는 작업은 매우 중요하다. 본 논문에서는 입력되는 컬러 영상으로부터 기계 학습 알고리즘 중의 하나인 딥러닝 알고리즘을 이용하여 사람의 얼굴 영역을 정확하게 검출하는 방법을 제안한다. 본 논문에서 제안된 방법에서는 먼저 RGB 색상 모델로 입력되는 영상을 $YC_bC_r$ 색상 모델로 변경한 다음, 기 학습된 타원형의 피부 색상 분포 모델을 활용하여 다른 영역들은 제거하고 사람의 피부 영역만을 먼저 분할한다. 그런 다음, CNN 모델 기반의 딥러닝 알고리즘을 적용하여 이전 단계에서 검출된 피부 영역 내에서 사람의 얼굴 영역을 강인하게 검출한다. 실험 결과에서는 제안된 방법이 입력되는 다양한 컬러 영상으로부터 사람의 얼굴 영역들을 기존의 방법에 비해 보다 효율적으로 분할한다는 것을 보여준다. 본 논문에서 제안된 얼굴 영역 검출 방법은 영상 보안, 물체 인식 및 추적, 얼굴 인식 등과 같은 멀티미디어 및 형태 인식과 관련된 실제적인 응용 분야에서 매우 유용하게 활용될 것으로 기대된다.

딥러닝 기반의 돌출 객체 검출을 위한 Saliency Attention 방법 (Saliency Attention Method for Salient Object Detection Based on Deep Learning)

  • 김회준;이상훈;한현호;김진수
    • 한국융합학회논문지
    • /
    • 제11권12호
    • /
    • pp.39-47
    • /
    • 2020
  • 본 논문에서는 이미지에서 돌출되는 객체를 검출하기 위해 Saliency Attention을 이용한 딥러닝 기반의 검출 방법을 제안하였다. 돌출 객체 검출은 사람의 시선이 집중되는 물체를 배경으로부터 분리시키는 것이며, 이미지에서 관련성이 높은 부분을 결정한다. 객체 추적 및 검출, 인식 등의 다양한 분야에서 유용하게 사용된다. 기존의 딥러닝 기반 방법들은 대부분 오토인코더 구조로, 특징을 압축 및 추출하는 인코더와 추출된 특징을 복원 및 확장하는 디코더에서 많은 특징 손실이 발생한다. 이러한 손실로 돌출 객체 영역에 손실이 발생하거나 배경을 객체로 검출하는 문제가 있다. 제안하는 방법은 오토인코더 구조에서 특징 손실을 감소시키고 배경 영역을 억제하기 위해 Saliency Attention을 제안하였다. ELU 활성화 함수를 이용해 특징 값의 영향력을 결정하며 각각 정규화된 음수 및 양수 영역의 특징값에 Attention을 진행하였다. 제안하는 Attention 기법을 통해 배경 영역을 억제하며 돌출 객체 영역을 강조하였다. 실험 결과에서는 제안하는 방법이 기존 방법과 비교하여 향상된 검출 결과를 보였다.

비주얼 서보잉을 위한 딥러닝 기반 물체 인식 및 자세 추정 (Object Recognition and Pose Estimation Based on Deep Learning for Visual Servoing)

  • 조재민;강상승;김계경
    • 로봇학회논문지
    • /
    • 제14권1호
    • /
    • pp.1-7
    • /
    • 2019
  • Recently, smart factories have attracted much attention as a result of the 4th Industrial Revolution. Existing factory automation technologies are generally designed for simple repetition without using vision sensors. Even small object assemblies are still dependent on manual work. To satisfy the needs for replacing the existing system with new technology such as bin picking and visual servoing, precision and real-time application should be core. Therefore in our work we focused on the core elements by using deep learning algorithm to detect and classify the target object for real-time and analyzing the object features. We chose YOLO CNN which is capable of real-time working and combining the two tasks as mentioned above though there are lots of good deep learning algorithms such as Mask R-CNN and Fast R-CNN. Then through the line and inside features extracted from target object, we can obtain final outline and estimate object posture.

초고속 R-CNN을 이용한 얼굴영상에서 눈 및 입술영역 검출방법 (A Method of Eye and Lip Region Detection using Faster R-CNN in Face Image)

  • 이정환
    • 한국융합학회논문지
    • /
    • 제9권8호
    • /
    • pp.1-8
    • /
    • 2018
  • 얼굴인식, 홍채인식과 같은 생체보안 분야에서 눈, 코, 입술 등 얼굴특징을 추출하는 과정은 필수적이다. 본 논문은 초고속(faster) R-CNN을 이용하여 얼굴영상에서 눈 및 입술영역을 검출하는 방법을 연구하였다. 초고속 R-CNN은 딥러닝을 이용한 물체검출 방법으로 기존의 특징기반 방법에 비해 성능이 우수한 것으로 알려져 있다. 본 논문에서는 얼굴영상에 콘볼루션, 선형정류과정, max pooling과정을 차례로 적용하여 특징맵을 추출하고 이로부터 제안영역(region proposal)을 검출하는 RPN(region proposal network)을 학습한다. 그리고 제안영역과 특징맵을 이용하여 눈 및 입술 검출기(detector)를 학습한다. 제안방법의 성능을 검토하기 위해 남녀한국인 얼굴영상 800장으로 실험하였다. 학습을 위해 480장을 이용했으며 테스트용으로 320장을 사용하였다. 컴퓨터모의 실험결과 눈 및 입술영역 검출의 평균정확도는 50 에포치일 때 각각 97.7%, 91.0%를 얻을 수 있었다.