• 제목/요약/키워드: object-image recognition

검색결과 793건 처리시간 0.031초

3차원 객체 인식을 위한 RGB-D 영상 특징점 추출 및 특징 기술자 생성 방법 (RGB-D Image Feature Point Extraction and Description Method for 3D Object Recognition)

  • 박노영;장영균;우운택
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(C)
    • /
    • pp.448-450
    • /
    • 2012
  • 본 논문에서는 Kinect 방식의 RGB-D 영상센서를 사용하여, 깊이(Depth) 영상으로부터 3차원 객체의 기하정보를 표현하는 표면 정규 벡터(Surface Normal Vector)를 추출하고, 그 결과를 영상화하는 방법을 제안하며, 제안된 방법으로 생성된 영상으로부터 깊이 영상의 특징점 및 특징 기술자를 추출하여 3차원 객체 인식 성능을 향상시키는 방법을 제안한다. 또한 생성된 RGB-D 특징 기술자들을 객체 단위로 구분 가능한 코드북(CodeBook) 학습을 통한 인식방법을 제안하여 객체의 인식 성능을 높이는 방법을 제안한다. 제안하는 RGB-D 기반의 특징 추출 및 학습 방법은 텍스쳐 유무, 카메라 회전 및 이동 변화 등의 환경변화에 강건함을 실험적으로 증명하였으며, 이 방법은 Kinect 방식의 RGB-D 영상을 사용하는 3차원 객체/공간 인식 및 추적, 혹은 이를 응용하는 증강현실 시스템에 적용하여 사용될 수 있다.

실내 서비스로봇의 물체인식 성능평가를 위한 영상 데이터베이스 구축 (Image database for performance evaluation of object recognition algorithm for indoor service robots)

  • 성기엽;문승빈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2012년도 추계학술발표대회
    • /
    • pp.662-664
    • /
    • 2012
  • 실내 서비스로봇이 빠르고 정확하게 업무를 수행하기 위해 위치인식과 물체인식은 매우 중요한 요소이다. 본 논문에서는 실내 서비스로봇의 물체인식 성능을 객관적으로 비교 평가를 할 수 있도록 Sejong OFEX 데이터베이스를 구성하였고 이에 대하여 기술하고자 한다. 2009년에 제작되어 제공되었던 OFEX 1.0의 취약점을 보완한 OFEX 2.0를 소개하고 있다. OFEX 2.0에서는 OFEX 1.0과 같은 환경 조건을 이용하여 촬영을 하였지만 물체를 6가지로 증가시키고, 복잡배경 영상을 추가하였다. 또한 기존에는 없던 복합조건 영상을 제작하여 제공한다. OFEX 2.0을 이용하여 물체인식 관련 알고리즘 간의 성능 비교 및 새로운 물체인식 방법의 개발에 도움이 될 것으로 기대한다.

Domain Shift 문제를 해결하기 위해 안개 특징을 이용한 딥러닝 기반 안개 제거 방법 (Deep learning-based de-fogging method using fog features to solve the domain shift problem)

  • 심휘보;강봉순
    • 한국멀티미디어학회논문지
    • /
    • 제24권10호
    • /
    • pp.1319-1325
    • /
    • 2021
  • It is important to remove fog for accurate object recognition and detection during preprocessing because images taken in foggy adverse weather suffer from poor quality of images due to scattering and absorption of light, resulting in poor performance of various vision-based applications. This paper proposes an end-to-end deep learning-based single image de-fogging method using U-Net architecture. The loss function used in the algorithm is a loss function based on Mahalanobis distance with fog features, which solves the problem of domain shifts, and demonstrates superior performance by comparing qualitative and quantitative numerical evaluations with conventional methods. We also design it to generate fog through the VGG19 loss function and use it as the next training dataset.

CNN 기반 특징맵 사용에 따른 특징점 가시화와 에러율 (Feature Visualization and Error Rate Using Feature Map by Convolutional Neural Networks)

  • 진태석
    • 한국산업융합학회 논문집
    • /
    • 제24권1호
    • /
    • pp.1-7
    • /
    • 2021
  • In this paper, we presented the experimental basis for the theoretical background and robustness of the Convolutional Neural Network for object recognition based on artificial intelligence. An experimental result was performed to visualize the weighting filters and feature maps for each layer to determine what characteristics CNN is automatically generating. experimental results were presented on the trend of learning error and identification error rate by checking the relevance of the weight filter and feature map for learning error and identification error. The weighting filter and characteristic map are presented as experimental results. The automatically generated characteristic quantities presented the results of error rates for moving and rotating robustness to geometric changes.

감시 카메라 영상의 객체 인식을 위한 회전 변화에 강인한 질감 분류 (Rotation Transformation Invariant Texture Classification for Object Recognition of Surveillance Camera Image)

  • 김원희;박성모;김종남
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2009년도 춘계학술발표대회
    • /
    • pp.171-172
    • /
    • 2009
  • 질감 분류 기술은 패턴인식과 컴퓨터 비전 분야에서 널리 사용되는 기술로서, 최근 들어서는 감시 카메라 시스템에서의 정확한 객체 인식을 위한 회전 변화에 강인한 질감 분류 연구가 진행되고 있다. 본 논문에서는 순환 가보 웨이블렛 필터를 이용한 회전 변환에 강인한 질감 분류 방법을 제안한다. 제안하는 방법은 순환 가보 웨이블렛 필터링된 영상에서 전역 및 지역 특징 벡터를 계산하고 특징 벡터의 차이를 이용한 유사도 측정 판별식으로 질감 분류를 수행한다. Brodatz 질감 앨범을 이용한 실험에서 기존의 방법들보다 2~6% 향상된 질감 분류 비율을 확인할 수 있었다. 제안하는 방법은 질감 기반 객체 인식에 관련된 응용 분야에서 유용하게 사용될 수 있다.

라이트필드 영상 슈퍼픽셀 분할의 시점간 일관성 개선 (Improving View-consistency on 4D Light Field Superpixel Segmentation)

  • 임종훈;;;전병우
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2021년도 하계학술대회
    • /
    • pp.97-100
    • /
    • 2021
  • Light field (LF) superpixel segmentation aims to group the similar pixels not only in the single image but also in the other views to improve the computational efficiency of further applications like object detection and pattern recognition. Among the state-of-the-art methods, there is an approach to segment the LF images while enforcing the view consistency. However, it leaves too much noise and inaccuracy in the shape of superpixels. In this paper, we modify the process of the clustering step. Experimental results demonstrate that our proposed method outperforms the existing method in terms of view-consistency.

  • PDF

앙상블 학습 알고리즘과 인공지능 표정 인식 기술을 활용한 사용자 감정 맞춤 힐링 서비스 (Using Ensemble Learning Algorithm and AI Facial Expression Recognition, Healing Service Tailored to User's Emotion)

  • 양성연;홍다혜;문재현
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.818-820
    • /
    • 2022
  • The keyword 'healing' is essential to the competitive society and culture of Koreans. In addition, as the time at home increases due to COVID-19, the demand for indoor healing services has increased. Therefore, this thesis analyzes the user's facial expression so that people can receive various 'customized' healing services indoors, and based on this, provides lighting, ASMR, video recommendation service, and facial expression recording service.The user's expression was analyzed by applying the ensemble algorithm to the expression prediction results of various CNN models after extracting only the face through object detection from the image taken by the user.

SURF 알고리즘 기반 특징점 추출기의 FPGA 설계 (FPGA Design of a SURF-based Feature Extractor)

  • 류재경;이수현;정용진
    • 한국멀티미디어학회논문지
    • /
    • 제14권3호
    • /
    • pp.368-377
    • /
    • 2011
  • 본 논문에서는 특징점 정합을 통한 객체인식, 파노라마 이미지 생성, 3차원 영상 복원 등에 사용될 수 있는 알고리즘 중 대표적인 SURF 알고리즘 기반 특징점 추출기의 하드웨어 구조 설계 및 FPGA 검증 결과에 대해 기술한다. SURF 알고리즘은 크기와 회전변화에 강한 특징점과 서술자를 생성함으로써 객체인식, 파노라마 이미지 생성, 3차원 영상 복원 등에 활용될 수 있다. 하지만 ARMl1(667Mhz) 프로세서와 128Mbytes의 DDR 메모리를 사용하는 임베디드 환경에서 실험결과 VGA($640{\times}480$) 해상도 C영상의 특정점 추출 처리 시약 7,200msec의 시간이 걸려 실시간 동작이 불가능한 것으로 파악되었다. 본 논문에서는 SURF 알고리즘의 핵심 요소인 적분 이미지 메모리 접근 패턴을 분석하여 메모리 접근 횟수와 메모리 사용량을 줄이는 방법을 이용해 실시간 동작이 가능하도록 하드웨어로 설계하였다. 설계된 하드웨어를 Xilinx(社)의 Vertex-5 FPGA 를 이용하여 검증한 결과 l00Mhz 클록에서 VGA 영상의 특징점 추출시 약 60frame/sec로 동작하여 실시간 응용으로 충분함을 알 수 있다.

종양세포식별을 위한 공간주파수영역에서의 화상해석 (Image Analysis for Discrimination of Neoplastic Cellis in Spatial Frequency Domain)

  • 나철훈;김창원;김현재
    • 한국통신학회논문지
    • /
    • 제18권3호
    • /
    • pp.385-396
    • /
    • 1993
  • 본(本) 논문(論文)은 병리학등(病理學等) 기초의학(基礎醫學)에서 요청되는 세포진(細胞診)을 위한 개선된 디지털 화상해석방법(畵像解析方法)을 제안(提案)하였다. 대상화상(對象晝像)은 갑상선세포(甲狀腺細胞)의 현미경화상(顯微鏡畵像)이고 목적은 정상세포(正常細胞)와 악성(惡性)인 유두상(乳頭狀) 종양(腫瘍)과 여포성종양(濾胞性腫瘍)간의 염색질(染色質) 패턴이 상이(相異)함을 화상해석(畵像解析)에 의해 자동식별(自動識別)하는 것이다. 먼저, 화상처리상(畵像處理上) 특징영역(特徵領域)인 세포핵(細胞核)만을 추출(抽出)하기 위해 윤곽추적법(輪廓追跡法)에 의한 영역분할(領域分割) 알고리즘을 제안하였다. 그리고 공간영역(空間領域)의 화상정보(畵像情報)를 이산적(離散적) 2차원 푸리에 변환한 후 1차원 푸리에변환에 의해 특징(特徵)파라미터를 추출(抽出)하였다. 여기서 세포(細胞) 유형별(類型別) 특징표본군(特徵標本群)을 구축하여 임의의 검증세포(檢證細胞)와 식별실험(識別實驗)을 행하였다. 기존의 방법보다 개선된 식별율(識別率)(70-90%)을 얻음으로써 본 방식은 세포진(細胞診)에 있어서 정량성(定量性)과 객관성(客觀性)을 더욱 구체화(具體化)시킬 수 있음을 증명하였다. 또한 본 방식을 그대로 종양세포식별(腫瘍細胞識別)에 즉시 사용가능함을 제시하였다.

  • PDF

인공지능 기반 구글넷 딥러닝과 IoT를 이용한 의류 분류 (Classification of Clothing Using Googlenet Deep Learning and IoT based on Artificial Intelligence)

  • 노순국
    • 스마트미디어저널
    • /
    • 제9권3호
    • /
    • pp.41-45
    • /
    • 2020
  • 최근 4차 산업혁명 관련 IT기술 중에서 머신러닝과 딥러닝으로 대표되는 인공지능과 사물인터넷은 다양한 연구를 통해 여러 분야에서 우리 실생활에 적용되고 있다. 본 논문에서는 사물인터넷과 객체인식 기술을 활용한 인공지능을 적용하여 의류를 분류하고자 한다. 이를 위해 이미지 데이터셋은 웹캠과 라즈베리파이를 이용하여 의류를 촬영하고, 촬영된 이미지 데이터를 전이학습된 컨벌루션 뉴럴 네트워크 인공지능망인 구글넷에 적용하였다. 의류 이미지 데이터셋은 온전한 이미지 900개와 손상이 있는 이미지 900 그리고 총 1800개를 가지고 상하의 2개의 카테고리로 분류하였다. 분류 측정 결과는 온전한 의류 이미지에서는 약 97.78%의 정확도를 보였다. 결론적으로 이러한 측정결과와 향후 더 많은 이미지 데이터의 보완을 통해 사물인터넷 기반 플랫폼상에서 인공지능망을 활용한 여타 사물들의 객체 인식에 대한 적용 가능성을 확인하였다.