• Title/Summary/Keyword: 히스토그램매칭

Search Result 91, Processing Time 0.028 seconds

사용자-객체 상호작용을 위한 복잡 배경에서의 객체 인식

  • Bae, Ju-Han;Hwang, Yeong-Bae;Choe, Byeong-Ho;Kim, Hyo-Ju
    • Information and Communications Magazine
    • /
    • v.31 no.3
    • /
    • pp.46-53
    • /
    • 2014
  • 사용자-객체 상호작용을 위해서는 영상 내 객체의 종류와 위치를 정확하게 파악하여 사용자가 객체에 관련된 행동을 취할 경우, 그에 맞는 상호작용을 수행해야 한다. 이러한 객체인식에 널리 사용되는 지역 불변 특징량 기반의 방법론은 복잡한 배경이나 균일 물체에 대하여 잘못된 매칭으로 인식률이 저하된다. 본고에서는 이를 해결하기 위해, 컬러와 깊이 근접도 기반 깊이 계층을 나누고, 복잡 배경으로부터 생기는 잘못된 특징점 대응을 최소화 하기 위해 각 깊이 계층과 인식 물체 영상간의 특징점 대응을 수행한다. 또한, 각 깊이 계층영역에서 색상 히스토그램 재투영으로 객체의 위치를 추정하고 추정 영역과 인식 물체 영상간의 생상 및 깊이 유사도를 판단한다. 최종적으로, 복잡 배경 효과를 최소화한 특징점 대응의 수, 색상 및 컬러 유사도를 고려하여 신뢰도를 측정하여 객체를 인식하게 되며, 이를 통해 복잡한 배경에서도 사용자와 객체간의 유연한 상호작용이 가능해진다.

Incoming and Outgoing Human Matching Using Similarity Metrics for Occupancy Sensor (점유센서를 위한 유사성 메트릭 기반 입출입 사람 매칭)

  • Jung, Jaejune;Kim, Manbae
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2018.11a
    • /
    • pp.33-35
    • /
    • 2018
  • 기존의 사람간의 유사성 측정 시스템은 적외선 빔이나 열 감지 영상 장치를 통해 측정하였다. 하지만 이와 같은 방법으로 측정하면 2명 이상의 객체를 분류해내는 기술은 제공하지 않는다. 이에 본 논문은 고정된 카메라를 이용하여 각 사람의 피부색과 옷차림 등의 RGB 정보를 이용한 사람 유사성 측정 기법을 제안한다. RGB카메라 영상을 통하여 객체의 RGB 히스토그램을 얻은 후 각 객체에 대해 Bhattacharyya metric, Cosine similarity, Jensen difference, Euclidean distance로 histogram similarity를 계산하여 객체 추적 및 유사성 측정을 통해 객체를 분류한다. 제안된 시스템은 C/C++를 기반으로 구현하여, 유사성 측정 성능을 평가하였다.

  • PDF

Intensity Correction of 3D Stereoscopic Images Using Region Segmentation (영역분할을 이용한 3D입체영상의 밝기 보정)

  • Kim, Sang-Hyun;So, Gil-Ja;Kim, Jeong-Yeop
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.644-647
    • /
    • 2010
  • 본 논문에서는 영역분할을 이용한 3D입체영상의 밝기 보정방법을 제안한다. 제안된 방법은 입력된 좌우 3D입체영상 중 우 영상을 이진화를 통한 영역분할을 하고 크기가 작은 영역들은 제거한다. 영역단위의 매칭을 할 때 영역경계에서 발생하는 불연속성을 제거하기 위해서 모폴로지 필터로 영역경계지역(contour region)을 일정부분 제거한다. 우 영상의 각 영역들에 대해 대응되는 좌 영상내의 영역을 상관계수(correlation coefficient)를 이용한 정합을 통해 추출한다. 좌우 영상의 영역 간 히스토그램 명세화를 수행함으로써 우 영상의 밝기 보정을 한다. 실험에서 좌 영상으로부터 블록단위 움직임보상으로 우 영상을 생성했을 때 제안한 방법이 블록평균 정합오차가 가장 작은 것을 확인 할 수 있었다.

A Study of Brush Stroke Generation Using Color Transfer (칼라변환을 이용한 브러쉬 스트로크의 생성에 관한 연구)

  • Park, Young-Sup;Yoon, Kyung-Hyun
    • Journal of the Korea Computer Graphics Society
    • /
    • v.9 no.1
    • /
    • pp.11-18
    • /
    • 2003
  • 본 논문에서는 회화적 렌더링에서 칼라변환을 이용한 브러쉬 스트로크의 생성에 관한 새로운 알고리즘을 제안한다. 본 논문의 브러쉬 스트로크 생성을 위한 전체적인 구성은 다음과 같다. 첫째, 두 장의 사진(한 장의 소스 이미지와 한 장의 참조 이미지)을 입력으로 하여 칼라 변환 이론을 적용하여 색상 테이블이 바뀐 새로운 이미지를 생성한다. 이 방법은 소스 이미지의 칼라 분포 형태를 창조 이미지의 칼라 분포 형태로 변환하기 위해, 선형 히스토그램 매칭이라 불리는, 간단한 통계학적 방법을 이용한다. 둘째, 가우시안 블러링과 소벨 필터를 이용하여 에지를 검출한다. 검출된 에지는 브러쉬 스트로크 렌더링 시 에지 부분에서 스트로크를 클리핑 함으로써 이미지의 윤곽선 보존을 위해 사용된다. 셋째, 브러쉬 스트로크의 방향을 결정하기 위한 방향맵을 생성한다. 방향맵은 입력 영상에 대한 영역 분할 및 병합을 토대로 만들어진다. 영역별 각 픽셀들에 대해 이미지 그래디언트에 기초한 일정한 방향을 부여함으로써 방향맵을 구성한다. 넷째, 구성된 방향맵을 참조하여 브러쉬 스트로크 생성의 기초가 되는 베지어 곡선(Bezier Curve)의 제어점(Control point)을 설정한다. 실제 회화작품에서 사용되는 브러쉬 스트로크는 일반적으로 곡선의 형태를 이루므로 곡선 표현이 가능한 베지어 곡선을 이용하여 브러쉬 스트로크를 표현하였다. 마지막으로, 생성된 브러쉬 스트로크를 에지부문에서 클리핑하고 배경색을 참조하여 블렌딩하거나 퐁 조명 모델을 이용하여 이미지에 적용하게 된다.

  • PDF

System Design and Implementation for Recognizing and Playing Guitar Tab Chords (타브 코드 인식 및 연주를 위한 시스템 설계와 구현)

  • Baek, Byunghyun;Lee, Hyunjong;oh, Hyungseok;ham, Jonghyun;Hwang, Doosung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.119-122
    • /
    • 2015
  • 기타를 처음 접할 때 겪는 어려움은 크게 운지법과 곡에 대한 이해다. 연주자마다 곡의 연주 방법이 상이하기 때문에 한 곡에 대해서도 다양한 타브 악보가 존재한다. 이 논문은 타브 악보를 인식하여 연주를 수행하는 휴대 가능한 시스템 설계를 제안한다. 기 연구된 악보 인식은 5선 기반의 악보를 대상으로 하였으며 수평 히스토그램을 사용하여 5선을 제거 한 뒤 나타나는 기호들을 인식했다. 본 논문에서는 6선인 타브 악보 인식 및 연주 시스템을 휴대 기기에서도 사용 가능하게 설계하여 많은 연산 양이 요구되는 선 제거 과정을 거치지 않는다. 템플릿 매칭 기법으로 전체 악보에서 타브 악보의 영역을 탐색하고, 탐지된 영역 안에서 선의 시작점을 탐색한다. 선의 시작부터 끝까지 가상 블록을 사용하여 선에 존재하는 공백을 탐지하고, 공백의 분할을 이용해 프렛을 분할하며, 프렛 인식은 프로토타입 기반 분류기를 이용하여 97.0%의 인식률을 보였다.

Robust Feature Extraction Based on Image-based Approach for Visual Speech Recognition (시각 음성인식을 위한 영상 기반 접근방법에 기반한 강인한 시각 특징 파라미터의 추출 방법)

  • Gyu, Song-Min;Pham, Thanh Trung;Min, So-Hee;Kim, Jing-Young;Na, Seung-You;Hwang, Sung-Taek
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.20 no.3
    • /
    • pp.348-355
    • /
    • 2010
  • In spite of development in speech recognition technology, speech recognition under noisy environment is still a difficult task. To solve this problem, Researchers has been proposed different methods where they have been used visual information except audio information for visual speech recognition. However, visual information also has visual noises as well as the noises of audio information, and this visual noises cause degradation in visual speech recognition. Therefore, it is one the field of interest how to extract visual features parameter for enhancing visual speech recognition performance. In this paper, we propose a method for visual feature parameter extraction based on image-base approach for enhancing recognition performance of the HMM based visual speech recognizer. For experiments, we have constructed Audio-visual database which is consisted with 105 speackers and each speaker has uttered 62 words. We have applied histogram matching, lip folding, RASTA filtering, Liner Mask, DCT and PCA. The experimental results show that the recognition performance of our proposed method enhanced at about 21% than the baseline method.

Convergence Analysis Algorithm Study for Extracting Image Configuration Parameters (영상 구성 파라미터 추출을 위한 융합 분석 알고리듬 연구)

  • Maeng, Chae Jung;Har, Dong-Hwan
    • Korea Science and Art Forum
    • /
    • v.37 no.3
    • /
    • pp.125-134
    • /
    • 2019
  • This study was conducted to organize a program to classify and analyze the characteristics of images for the automation of background music selection in the video content production process. The results and contents of the study are as follows: video characteristics are selected as subject category, emotion, pixel motion speed, color, and character material. Subject categories and feelings were extracted using Microsoft's Azure Video Indexer, Pixel Movement Speed was an Optional flow, Color was an Image Histogram for Image, and character materials was CNN(Convolutional Neural Network). The results of this study are significant in that video analysis was conducted to match background music in the recent content production process of 'Internet One-person Broadcasting Creators'.

Fully Automatic Liver Segmentation Based on the Morphological Property of a CT Image (CT 영상의 모포러지컬 특성에 기반한 완전 자동 간 분할)

  • 서경식;박종안;박승진
    • Progress in Medical Physics
    • /
    • v.15 no.2
    • /
    • pp.70-76
    • /
    • 2004
  • The most important work for early detection of liver cancer and decision of its characteristic and location is good segmentation of a liver region from other abdominal organs. This paper proposes a fully automatic liver segmentation algorithm based on the abdominal morphology characteristic as an easy and efficient method. Multi-modal threshold as pre-processing is peformed and a spine is segmented for finding morphological coordinates of an abdomen. Then the liver region is extracted using C-class maximum a posteriori (MAP) decision and morphological filtering. In order to estimate results of the automatic segmented liver region, area error rate (AER) and correlation coefficients of rotational binary region projection matching (RBRPM) are utilized. Experimental results showed automatic liver segmentation obtained by the proposed algorithm provided strong similarity to manual liver segmentation.

  • PDF

Inspection of Vehicle Headlight Defects (차량 헤드라이트 불량검사 방법)

  • Kim, Kun Hong;Moon, Chang Bae;Kim, Byeong Man;Oh, Duk Hwan
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.23 no.1
    • /
    • pp.87-96
    • /
    • 2018
  • In this paper, we propose a method to determine whether there is a defect by using the similarity between ROIs (Region of Interest) of the standard image and ROIs of the image which is corrected in position and rotation after capturing the vehicle headlight. The degree of similarity is determined by the template matching based on the histogram of image, which is a some modification of the method provided by OpenCV where template matching is performed on the raw image not the histogram. The proposed method is compared with the basic method of OpenCV for performance analysis. As a result of the analysis, it was found that the proposed method showed better performance than the OpenCV method, showing the accuracy close to 100%.

Distance Detection between Vehicles Using Stereo Vision (스테레오 비젼을 이용한 차량간 거리정보 검출)

  • Yang, Seok-Joo;Baek, Joong-Hwan
    • Journal of Advanced Navigation Technology
    • /
    • v.6 no.1
    • /
    • pp.27-36
    • /
    • 2002
  • As the number of autonomous vehicles is increased, drivers are trending toward constant interests in detecting distance between vehicles in close-range and maintaining the distance between forward and backward vehicles for drivers' safety. In this paper, we propose a method of detecting the distance between two vehicles by computing the disparity of the close-rang vehicle using stereo vision. The boundary of the vehicle is obtained by using the modified wavelet transform which has multi-resolution characteristics. Then the disparity between left and right images is computed using coarse-to-fine method and histogram matching. Here we transform the left-right stereo images through 3-steps using the modified wavelet for maintaining the original resolution. An experimental result showed that the proposed method had 4.65% in total error rate.

  • PDF