• 제목/요약/키워드: Visual feature

검색결과 742건 처리시간 0.024초

회전무관 3D Star Skeleton 특징 추출 (Rotation Invariant 3D Star Skeleton Feature Extraction)

  • 전성국;홍광진;정기철
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제36권10호
    • /
    • pp.836-850
    • /
    • 2009
  • 포즈인식은 최근에 유비쿼터스 환경, 행위 예술, 로봇 제어 등에서 그 필요성이 증가되고 있는 분야로써, 컴퓨터비전, 패턴인식 등에서 활발히 연구되고 있다. 하지만 기존의 포즈인식 연구들은 사람의 회전이나 이동에 따라서 불안정한 인식률을 보인다는 단점을 갖고 있다. 이는 포즈 인식을 위해 추출한 특징이 사람의 회전, 이동 등의 다양한 변수에 영향을 크게 받기 때문이다. 이를 극복하기 위하여 본 논문에서는, 다 시점(multi-view) 환경에서의 3D Star Skeleton과 주성분 분석(principal component analysis: PCA)에 기반한 사람의 회전에 강건한 특징 추출을 제안한다. 제안된 시스템은 포즈의 특징 추출을 위해 다 시점 환경 기반의 visual hull을 생성하는 과정에서 획득 가능한 깊이 정보를 표현하는 8개의 projection map을 입력데이터로 사용한다. 이를 통해 포즈의 3D 정보를 반영하는 3D Star Skeleton을 구성하고 주성분 분석 기반의 회전에 강건한 특징을 추출한다. 실험결과에서는 다양하게 회전된 사람으로부터 생성된 3D Star Skeleton에서 특징을 추출하고 다양한 인식기를 통해 포즈인식을 해보았으며, 제안된 특징 추출 방법이 사람의 회전에 강건함을 알 수 있었다.

객체 위치 관계의 8AB 표현을 이용한 내용 기반 영상 검색 기법 (Content Based Image Retrieval using 8AB Representation of Spatial Relations between Objects)

  • 주찬혜;정진완;박호현;이석룡;김상희
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제34권4호
    • /
    • pp.304-314
    • /
    • 2007
  • 내용 기반 영상 검색(CBIR)은 영상 내용의 특성 기술을 이용하여 영상을 저장하고 검색하는 기법이다. 좀더 정확한 영상 검색을 지원하기 위하여 영상 내용을 좀 더 효과적으로 기술할 수 있는 특성의 개발이 필요하게 되었다. 현재 주로 사용되고 있는 낮은 레벨의 색상, 질감, 형태 등의 특성은 인간의 인지와 직접적으로 연관이 되지 않으며, 여러 개의 객체가 포함되어 있는 영상은 잘 기술하지 못한다는 단점을 가진다. 이러한 단점을 보완하기 위하여 영상 검색 분야의 연구는 높은 레벨의 특성에 대한 연구로 진행되게 되었다. 높은 레벨의 특성은 좀 더 인간의 인지와 유사한 형식으로 영상을 기술하며, 대표적인 특성으로는 객체간의 위치 관계 표현 등이 있다. 하지만 객체간의 위치 관계 표현에 대한 이전의 연구들은 회전된 영상은 검색하지 못한다는 단점이 있다. 하지만 회전 불변(rotation invariant)은 정확한 영상 검색을 위한 특성 기술에 있어 중요하다. 본 논문에서는 객체간의 위치 관계를 효과적으로 표현하기 위한 높은 레벨의 특성인 8AB(8 Angular Bin)라는 새로운 기법을 제안한다. 8AB 기법은 회전 불변을 지원한다. 제안한 기법을 이용한 유사도 계산 및 검색 기법 역시 제안되었다. 또한 본 논문에서는 검색 시간을 단축하기 위한 검색 공간 축소 기법을 제안하였다. 이러한 기법들을 이용하여 실제 데이타와 합성 데이타를 사용한 실험을 행하여 제안된 기법의 유효성 및 검색 공간 축소 기법의 성능을 보였다.

3차원 장면 복원을 위한 강건한 실시간 시각 주행 거리 측정 (Robust Real-Time Visual Odometry Estimation for 3D Scene Reconstruction)

  • 김주희;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권4호
    • /
    • pp.187-194
    • /
    • 2015
  • 본 논문에서는 RGB-D 입력 영상들로부터 3차원 공간을 움직이는 카메라의 실시간 포즈를 효과적으로 추적할 수 있는 시각 주행 거리측정기를 제안한다. 본 논문에서 제안하는 시각 주행 거리 측정기에서는 컬러 영상과 깊이 영상의 풍부한 정보를 충분히 활용하면서도 실시간 계산량을 줄이기 위해, 특징 기반의 저밀도 주행 거리 계산 방법을 사용한다. 본 시스템에서는 보다 정확한 주행 거리 추정치를 얻기 위해, 카메라 이동 이전과 이동 이후의 영상에서 추출한 특징들을 정합한 뒤, 정합된 특징들에 대한 추가적인 정상 집합 정제 과정과 주행 거리 정제 작업을 반복한다. 또한, 정제 후 잔여 정상 집합의 크기가 충분치 않은 경우에도 잔여 정상 집합의 크기에 비례해 최종 주행 거리를 결정함으로써, 추적 성공률을 크게 향상시켰다. TUM 대학의 벤치마크 데이터 집합을 이용한 실험과 3차원 장면 복원 응용 시스템의 구현을 통해, 본 논문에서 제안하는 시각 주행 거리 측정 방법의 높은 성능을 확인할 수 있었다.

VILODE : 키 프레임 영상과 시각 단어들을 이용한 실시간 시각 루프 결합 탐지기 (VILODE : A Real-Time Visual Loop Closure Detector Using Key Frames and Bag of Words)

  • 김혜숙;김인철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제4권5호
    • /
    • pp.225-230
    • /
    • 2015
  • 본 논문에서는 키 프레임 영상과 SURF 특징점 기반의 시각 단어들을 이용한 효과적인 실시간 시각 루프 결합 탐지기 VILODE를 제안한다. 시각 루프 결합 탐지기는 과거에 지나온 위치들 중 하나를 다시 재방문하였는지를 판단하기 위해, 새로운 입력 영상을 이미 지나온 위치들에서 수집한 과거 영상들과 모두 비교해보아야 한다. 따라서 새로운 위치나 장소를 방문할수록 비교 대상 영상들이 계속해서 증가하기 때문에, 일반적으로 루프 결합 탐지기는 실시간 제약과 높은 탐지 정확도를 동시에 만족하기 어렵다. 이러한 문제점을 극복하기 위해, 본 시스템에서는 입력 영상들 중에서 의미 있는 것들만을 선택해 이들만을 비교하는 효과적인 키 프레임 선택 방법을 채택하였다. 따라서 루프 탐지에 필요한 영상 비교를 대폭 줄일 수 있다. 또한 본 시스템에서는 루프 결합 탐지의 정확도와 효율성을 높이기 위해, 키 프레임 영상들을 시각 단어들로 표현하고, DBoW 데이터베이스 시스템을 이용해 키 프레임 영상들에 대한 색인을 구성하였다. TUM 대학의 벤치마크 데이터들을 이용한 실험을 통해, 본 논문에서 제안한 시각 루프 결합 탐지기의 높은 성능을 확인할 수 있었다.

시각적 특징을 기반한 샷 클러스터링을 통한 비디오 씬 탐지 기법 (Video Scene Detection using Shot Clustering based on Visual Features)

  • 신동욱;김태환;최중민
    • 지능정보연구
    • /
    • 제18권2호
    • /
    • pp.47-60
    • /
    • 2012
  • 비디오 데이터는 구조화되지 않은 복합 데이터의 형태를 지닌다. 이러한 비디오 데이터의 효율적인 관리 및 검색을 위한 비디오 데이터 구조화의 중요성이 대두되면서 콘텐츠 내 시각적 특징을 기반으로 비디오 씬(scene)을 탐지하고자 하는 연구가 활발히 진행되었다. 기존의 연구들은 주로 색상 정보만을 이용하여 샷(shot) 간의 유사도 평가를 기반한 클러스터링(clustering)을 통해 비디오 씬을 탐지하고자 하였다. 하지만 비디오 데이터의 색상 정보는 노이즈(noise)를 포함하고, 특정 사물의 개입 등으로 인해 급격하게 변화하기 때문에 색상만을 특징으로 고려할 경우, 비디오 샷 혹은 씬에 대한 올바른 식별과 디졸브(dissolve), 페이드(fade), 와이프(wipe)와 같은 화면의 점진적인 전환(gradual transitions) 탐지는 어렵다. 이러한 문제점을 해결하기 위해, 본 논문에서는 프레임(frame)의 컬러 히스토그램과 코너 에지, 그리고 객체 컬러 히스토그램에 해당하는 시각적 특징을 기반으로 동일한 이벤트를 구성하는 의미적으로 유사한 샷의 클러스터링을 통해 비디오 씬을 탐지하는 방법(Scene Detector by using Color histogram, corner Edge and Object color histogram, SDCEO)을 제안한다. SDCEO는 샷 바운더리 식별을 위해 컬러 히스토그램 분석 단계에서 각 프레임의 컬러 히스토그램 정보를 이용하여 1차적으로 연관성 있는 연속된 프레임을 샷 바운더리로 병합한 후, 코너 에지 분석 단계에서 병합된 샷 내 처음과 마지막 프레임의 코너 에지 특징 비교를 통하여 샷 바운더리를 정제하여 최종 샷을 식별한다. 키프레임 추출 단계에서는 샷 내 프레임간 유사도 비교를 통해 모든 프레임과 가장 유사한 프레임을 각 샷을 대표하는 키프레임으로 추출한다. 그 후, 비디오 씬 탐지를 위해, 컬러 히스토그램과 객체 컬러 히스토 그램에 해당하는 프레임의 시각적 특징을 기반으로 상향식 계층 클러스터링 방법을 이용하여 의미적인 연관성을 지니는 샷의 군집화를 통해 비디오 씬을 탐지하는 방법이다. 본 논문에서는 SDCEO의 프로토 타입을 구축하고 3개의 비디오 데이터를 이용한 실험을 통하여 SDCEO의 효율성을 평가하였고 샷 바운더리 식별의 성능의 정확도는 평균 93.3%, 비디오 씬 탐지 성능의 정확도는 평균 83.3%로 만족할만한 성능을 보였다.

필기체 문자 인식에서 특징 추출을 위한 공간 필터링 신경회로망 (A Spatial Filtering Neural Network Extracting Feature Information Of Handwritten Character)

  • 홍경호;정은화
    • 전자공학회논문지CI
    • /
    • 제38권1호
    • /
    • pp.19-25
    • /
    • 2001
  • 공간 필터링 신경회로망을 이용한 필기체 문자 인식의 특징 추출 방법을 제안한다. 필기체 문자의 특징 추출을 위한 신경망은 먼저, 불규칙한 화소를 제거하는 전처리를 수행한다. 그 후, 윤곽선 검출 및 제거를 통해 외곽선 정보들을 소거한다. 그리고 문자의 특징에 해당하는 정보를 추출한 후 잡음을 제거한다. 제안된 시스템은 시각영역에서 나타나는 여러 가지 세포들의 수용 영역에 대응하는 공간 필터를 활용한 것이다. 제안된 시스템의 타당성을 확인하기 위한 실험은 PE2 데이터를 사용하였다. 실험을 통해 공간필터링 신경회로망을 이용한 필기체 문자의 특징 추출 시스템은 곡선이나 원, 사각형이 포함된 형태의 필기 문자에서도 특징 추출이 용이하다는 것을 확인할 수 있다.

  • PDF

An Image Quality Evaluation Model for Optical Strip Signal-to-Noise Ratio in the Target Area of High Temperature Forgings

  • Ma, Hongtao;Zhao, Yuyang;Feng, Yiran;Lee, Eung-Joo;Tao, Xueheng
    • Journal of Multimedia Information System
    • /
    • 제8권2호
    • /
    • pp.93-100
    • /
    • 2021
  • Under the time-varying temperature, the high-temperature radiation of forgings and the change of reflection characteristics of oxide skin on the surface of forgings lead to the difficulty of obtaining images to truly reflect the geometric characteristics of forgings. It is urgent to study the clear and reliable acquisition method of hot forging feature image under time-varying temperature to meet the requirements of visual measurement of hot geometric parameters of forgings. Based on this, this chapter first puts forward the quality evaluation method of forging feature image, which provides guarantee for the accurate evaluation of feature image quality. Furthermore, the factors that affect the image quality, such as the radiation characteristics of forgings and the photographic characteristics of cameras, are analyzed, and the imaging spectrum which can effectively suppress the radiation intensity of forgings is determined. Finally, aiming at the problem that the quality of image acquisition is difficult to guarantee due to the drastic change of radiation intensity of forgings under time-varying temperature, an image acquisition method based on minimum signal-to-noise ratio (SNR) based laser light intensity adaptation is proposed, which significantly improves the definition of feature light strips in forging images at high temperature, and finally realizes the clear acquisition of feature images of large-scale hot forging under time-varying temperature.

Performance Improvement of Classifier by Combining Disjunctive Normal Form features

  • Min, Hyeon-Gyu;Kang, Dong-Joong
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제10권4호
    • /
    • pp.50-64
    • /
    • 2018
  • This paper describes a visual object detection approach utilizing ensemble based machine learning. Object detection methods employing 1D features have the benefit of fast calculation speed. However, for real image with complex background, detection accuracy and performance are degraded. In this paper, we propose an ensemble learning algorithm that combines a 1D feature classifier and 2D DNF (Disjunctive Normal Form) classifier to improve the object detection performance in a single input image. Also, to improve the computing efficiency and accuracy, we propose a feature selecting method to reduce the computing time and ensemble algorithm by combining the 1D features and 2D DNF features. In the verification experiments, we selected the Haar-like feature as the 1D image descriptor, and demonstrated the performance of the algorithm on a few datasets such as face and vehicle.

실내 환경 이미지 매칭을 위한 GMM-KL프레임워크 (GMM-KL Framework for Indoor Scene Matching)

  • Kim, Jun-Young;Ko, Han-Seok
    • 대한전기학회:학술대회논문집
    • /
    • 대한전기학회 2005년도 학술대회 논문집 정보 및 제어부문
    • /
    • pp.61-63
    • /
    • 2005
  • Retreiving indoor scene reference image from database using visual information is important issue in Robot Navigation. Scene matching problem in navigation robot is not easy because input image that is taken in navigation process is affinly distorted. We represent probabilistic framework for the feature matching between features in input image and features in database reference images to guarantee robust scene matching efficiency. By reconstructing probabilistic scene matching framework we get a higher precision than the existing feaure-feature matching scheme. To construct probabilistic framework we represent each image as Gaussian Mixture Model using Expectation Maximization algorithm using SIFT(Scale Invariant Feature Transform).

  • PDF

Automatic Face Identification System Using Adaptive Face Region Detection and Facial Feature Vector Classification

  • Kim, Jung-Hoon;Do, Kyeong-Hoon;Lee, Eung-Joo
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -2
    • /
    • pp.1252-1255
    • /
    • 2002
  • In this paper, face recognition algorithm, by using skin color information of HSI color coordinate collected from face images, elliptical mask, fratures of face including eyes, nose and mouth, and geometrical feature vectors of face and facial angles, is proposed. The proposed algorithm improved face region extraction efficacy by using HSI information relatively similar to human's visual system along with color tone information about skin colors of face, elliptical mask and intensity information. Moreover, it improved face recognition efficacy with using feature information of eyes, nose and mouth, and Θ1(ACRED), Θ2(AMRED) and Θ 3(ANRED), which are geometrical face angles of face. In the proposed algorithm, it enables exact face reading by using color tone information, elliptical mask, brightness information and structural characteristic angle together, not like using only brightness information in existing algorithm. Moreover, it uses structural related value of characteristics and certain vectors together for the recognition method.

  • PDF