• 제목/요약/키워드: color image segmentation

검색결과 411건 처리시간 0.024초

Hand Gesture Recognition using Optical Flow Field Segmentation and Boundary Complexity Comparison based on Hidden Markov Models

  • Park, Sang-Yun;Lee, Eung-Joo
    • 한국멀티미디어학회논문지
    • /
    • 제14권4호
    • /
    • pp.504-516
    • /
    • 2011
  • In this paper, we will present a method to detect human hand and recognize hand gesture. For detecting the hand region, we use the feature of human skin color and hand feature (with boundary complexity) to detect the hand region from the input image; and use algorithm of optical flow to track the hand movement. Hand gesture recognition is composed of two parts: 1. Posture recognition and 2. Motion recognition, for describing the hand posture feature, we employ the Fourier descriptor method because it's rotation invariant. And we employ PCA method to extract the feature among gesture frames sequences. The HMM method will finally be used to recognize these feature to make a final decision of a hand gesture. Through the experiment, we can see that our proposed method can achieve 99% recognition rate at environment with simple background and no face region together, and reduce to 89.5% at the environment with complex background and with face region. These results can illustrate that the proposed algorithm can be applied as a production.

Plant Species Identification based on Plant Leaf Using Computer Vision and Machine Learning Techniques

  • Kaur, Surleen;Kaur, Prabhpreet
    • Journal of Multimedia Information System
    • /
    • 제6권2호
    • /
    • pp.49-60
    • /
    • 2019
  • Plants are very crucial for life on Earth. There is a wide variety of plant species available, and the number is increasing every year. Species knowledge is a necessity of various groups of society like foresters, farmers, environmentalists, educators for different work areas. This makes species identification an interdisciplinary interest. This, however, requires expert knowledge and becomes a tedious and challenging task for the non-experts who have very little or no knowledge of the typical botanical terms. However, the advancements in the fields of machine learning and computer vision can help make this task comparatively easier. There is still not a system so developed that can identify all the plant species, but some efforts have been made. In this study, we also have made such an attempt. Plant identification usually involves four steps, i.e. image acquisition, pre-processing, feature extraction, and classification. In this study, images from Swedish leaf dataset have been used, which contains 1,125 images of 15 different species. This is followed by pre-processing using Gaussian filtering mechanism and then texture and color features have been extracted. Finally, classification has been done using Multiclass-support vector machine, which achieved accuracy of nearly 93.26%, which we aim to enhance further.

설진 기기의 시스템 구성 및 진단 방법 개발 (Development of System Configuration and Diagnostic Methods for Tongue Diagnosis Instrument)

  • 김근호;도준형;유현희;김종열
    • 한국한의학연구원논문집
    • /
    • 제14권3호
    • /
    • pp.89-95
    • /
    • 2008
  • A tongue shows physiological and clinicopathological changes of inner organs. Visual inspection of a tongue is not only convenient but also non-invasive. To develop an automat ic tongue diagnosis system for an objective and standardized diagnosis, the separation of the tongue are a from a facial image and the detection of coatings, spots and cracks are inevitable but difficult since the colors of a tongue, lips, and skin in a mouth as well as those of tongue furs and body are similar. The propose d method includes preprocessing with down-sampling and edge enhancement, over-segmentation, detecting positions with a local minimum over shading from the structure of a tongue, and correcting local minima or detecting edge with color difference. The proposed method produces the region of a segmented tongue, and then decomposes the color components of the region into hue, saturation and brightness, resulting in classifying the regions of tongue furs(coatings) into kinds of coatings and substance and segmenting them. Spots are detected by using local maxima and the variation of saturation, and cracks are searched by using local minima and the directivity of dark areas in brightness. The results illustrate the segmented region with effective information, excluding a non-tongue region and also give us accurate discrimination of coatings and the precise detection of spots and cracks. It can be used to make an objective and standardized diagnosis for an u-Healthcare system as well as a home care system.

  • PDF

윤곽선 정보를 이용한 동영상에서의 객체 추출 (Video Object Extraction Using Contour Information)

  • 김재광;이재호;김창익
    • 대한전자공학회논문지SP
    • /
    • 제48권1호
    • /
    • pp.33-45
    • /
    • 2011
  • 본 논문에서는 객체의 윤곽선 정보에 기반한 수정된 그래프컷(Graph-cut) 알고리즘을 이용하여 동영상에서 효율적으로 객체를 추출하는 방법을 제안한다. 이를 위해 먼저, 첫 프레임에서 자동 추출 알고리즘 이용하거나 사용자와의 상호작용을 통해 영상에서 객체를 분리한다. 객체의 형태 정보를 상속시키기 위해 이전 프fp임에서 추출된 객체 윤곽선의 움직임을 예측한다. 예측된 윤곽선을 기준으로 블록 단위 히스토그램 역투영(Block-based Histogram Back-projection) 알고리즘을 수행하여 다음 프레임의 각 픽셀에 대한 객체와 배경의 컬러 모델을 형성한다. 또한 윤곽선을 중심으로 전체 영상에 대한 로그함수 기반의 거리 변환 지도(Distance Transform Map)를 생성하고 인접 픽셀간의 연결(link)의 확률을 결정한다. 생성된 컬러 모델과 거리 변환 지도를 이용하여 그래프를 형성하고 에너지를 정의하며 이를 최소화하는 과정을 통해 객체를 추출한다. 다양한 영상들에 대한 실험 결과를 통해서 기존의 객체 추출 방법보다 제안하는 방법이 객체를 보다 정확하게 추출함을 확인할 수 있다.

HCI 시스템의 손 추적을 위한 수정 블록 정합 알고리즘 (The Modified Block Matching Algorithm for a Hand Tracking of an HCI system)

  • 김진옥
    • 인터넷정보학회논문지
    • /
    • 제4권4호
    • /
    • pp.9-14
    • /
    • 2003
  • GUI(Grophic User Interface) 기반의 상호작용은 컴퓨터를 더 사용하기 간단하고 쉽게 만들었다. 그러나 GUI 기반의 상호작용은 자연스럽고 직관적이며 적응적인 사용자의 요구사항을 만족시키기 위해 필요한 상호 작용 기능을 쉽게 지원하지는 못한다. 본 연구에서는 이미지 시퀀스에서 손을 추적하고 가상 현실에서 포인팅 장치로 마우스를 대체하기 위해 각 비디오 프레임에서 손을 인식하는데 유용한 방법인 수정 BMA를 제안했으며 이를 이용해 초당 30 프레임의 HCI 시스템을 구현했다. HCI 시스템을 구현하는데 가장 중요한 기준은 정확한 움직임 벡터 포착과 그의 실시한 처리이다. 수정 BMA는 실시간 처리를 위해 손의 위치, 움직임 방향을 고려한 손 영역을 분할, 손 영역의 색상 분포를 예측하는데 적용했다. 실험 결과는 YCbCr 좌표를 이용한 수정 BMA가 실시간 처리와 인식율을 보장함을 보여 준다. YCbCr 색상 좌표는 각 픽셀 색상의 휘도를 제거한 RGB 색상 좌표보다 더 적은 비트로 코딩 가능하며 주변 상황에 덜 민감하다. 수정 BMA를 이용한 손 추적은 가상현실, 게임과 장애인을 위한 HCI시스템 적용가능하다.

  • PDF

장면의 유사도 패턴 비교를 이용한 내용기반 동영상 분할 알고리즘 (Content based Video Segmentation Algorithm using Comparison of Pattern Similarity)

  • 원인수;조주희;나상일;진주경;정재협;정동석
    • 한국멀티미디어학회논문지
    • /
    • 제14권10호
    • /
    • pp.1252-1261
    • /
    • 2011
  • 본 논문은 내용기반 동영상 분할을 위한 장면의 유사도 패턴 비교 방법을 제안한다. 동영상 장면 전환의 종류는 크게 급진적 전환과 디졸브(dissolve), 페이드인(fade-in), 페이드아웃(fade-out), 와이프 전환(wipe transition)을 포함하는 점진적 전환 형태로 나눌 수 있다. 제안하는 방법은 모든 종류의 장면 전환 검출 문제를 단지 발생 유무의 문제로 간단 정의하고, 장면 전환 종류는 별도로 구분하지 않는다. 장면 전환을 검출하기 위해서는 프레임간의 유사도를 정의해야 한다. 본 논문에서는 장면 내 유사도(within similarity)와 장면 간 유사도(between similarity)를 정의하며 두 유사도의 통계적 패턴 비교를 통하여 최종적으로 장면 전환을 검출하게 된다. 장면 내 유사도와 장면 간 유사도의 비율을 구하는 방법을 통해 플래시라이트나영상 내 물체 움직임에 대한 거짓 양성 검출을 별도의 후처리 과정 없이도 방지할 수 있음을 확인하였다. 프레임의 특징 값으로는 컬러 히스토그램과 프레임 내 평균 화소값을 이용하였다. TREC-2001, TREC-2002 동영상 셋을 포함한 실험 셋에서 성능을 평가한 결과 제안하는 알고리즘의 경우 총 91.84%의 재현율(recall)과 86.43%의 정확도(precision)의 성능을 보임을 확인할 수 있었다.

객체기반 분류기법을 이용한 토지피복 특성분석 - 강원도 인제군의 DMZ지역 일원을 대상으로 - (Analysis of Land Cover Characteristics with Object-Based Classification Method - Focusing on the DMZ in Inje-gun, Gangwon-do -)

  • 나현섭;이정수
    • 한국지리정보학회지
    • /
    • 제17권2호
    • /
    • pp.121-135
    • /
    • 2014
  • 최근 픽셀기반분류보다 더 많은 정보를 이용할 수 있는 객체기반에 대한 연구가 활발히 진행 중이다. 따라서, 본 연구는 인제군 Demilitarized Zone(DMZ)지역 일원을 대상으로 객체기반 분류기법을 이용한 토지피복분류를 실시하였다. 분류항목은 환경부 기준의 대분류 항목 7개, 중분류 항목 13개로 선정하였고, 사용된 인자는 분광 값의 평균과 표준편차, Grey Level Co-occurrence Matrix(GLCM)의 Homogeneity를 사용하여 감독분류방법 중 최근린기법을 이용하여 계층적 토지피복도를 구축하였다. 구축된 토지피복도를 이용하여 남방한계선으로부터의 거리와 Digital elevation model(DEM)을 통해 지형특성에 따른 분류항목 별 분포 특성을 분석하였다. 객체기반 분류를 위한 최적 가중치는 Scale 72, Shape 0.2. Color 0.8, Compactness 0.5, Smoothness 0.5로 선정하였고, 가중치 선정과정에서 Scale, Shape, Color가 가장 많은 영향을 주었다. 대분류 토지피복분류는 산림, 초지, 시가지의 순으로 각각 약 92%, 약 5%, 약 2%였으며, 중분류 토지피복분류는 활엽수림, 혼효림, 침엽수림의 순으로 각각 약 44%, 약 42%, 약 6% 순으로 분포하였다. 토지피복형태에 따른 분포특성을 보면, 남방한계선으로부터 2km이내의 지역에서 공공시설 지역과 도로의 이용이 높았으며, 남방한계선 6km이상의 지역에서는 논과 밭, 나지의 형태가 많았다. 산림은 표고 600m, 경사 $30^{\circ}$이상의 지역에서는 면적분포가 높았고, 농업지역과 나지, 초지는 표고 600m, 경사 $30^{\circ}$이하의 지역에서 면적분포가 높았다.

UAV와 객체기반 영상분석 기법을 활용한 토지피복 분류 - 충청남도 서천군 마서면 일원을 대상으로 - (Land Cover Classification Using UAV Imagery and Object-Based Image Analysis - Focusing on the Maseo-myeon, Seocheon-gun, Chungcheongnam-do -)

  • 문호경;이선미;차재규
    • 한국지리정보학회지
    • /
    • 제20권1호
    • /
    • pp.1-14
    • /
    • 2017
  • 토지피복도는 지역의 현황을 파악하는 기초적 자료이지만 시간적 공간적 해상도의 한계로 인하여 생태 연구 분야에서의 활용성은 떨어지는 측면이 있다. 이에 본 연구에서는 UAV으로 취득된 고해상도 영상을 기반으로 토지피복도 제작과 자료의 활용가능성을 알아보고자 하였다. UAV를 이용하여 연구대상지 $2.5km^2$ 범위에서 10.5cm 정사영상을 취득하였으며 객체기반(Object-based)과 화소기반(pixel-based) 분류를 통해 얻어진 토지피복도를 비교 분석하였다. 정확도 검증 결과 화소기반 분류는 Kappa 0.77, 객체기반 분류는 Kappa 0.82로 분류정확도가 높았으며, 전반적인 면적비율은 유사하지만 초지, 습지 지역에서 양호한 분류 결과가 나타났다. 객체기반 분류를 위한 최적의 영상분할 가중치는 Scale150, Shape 0.5, Compactness 0.5, Color 1로 선정하였으며 가중치 선정과정에서 Scale이 가장 큰 영향을 주었다. 화소기반 분류 결과와 비교해 객체간의 명확한 경계를 가지므로 결과물 판독이 용이한 것으로 나타났으며, 환경부 토지피복도(세분류)와 비교하여 개발지역(도로, 건물 등)을 제외한 자연지역(산림, 초지, 습지 등)의 분류에 효과적이었다. UAV 영상을 활용한 토지피복 분류방법으로서 객체기반 분류기법의 적용은 자료의 최신성, 정확성, 경제성 등의 장점으로 생태 연구 분야에 기여할 수 있을 것으로 판단된다.

심층신경망 기반 우주파편 영상 추적시스템 인식모델에 대한 연구 (A Study on the Deep Neural Network based Recognition Model for Space Debris Vision Tracking System)

  • 임성민;김진형;최원섭;김해동
    • 한국항공우주학회지
    • /
    • 제45권9호
    • /
    • pp.794-806
    • /
    • 2017
  • 지속적으로 우주파편이 증가하고 있는 상황에서 국가 우주자산을 안전하게 보호하고 우주개발국으로서 우주환경 보호에 관심을 가지는 것은 중요하다. 우주파편의 급격한 증가를 막기 위한 효과적인 방법 중 하나는 충돌위험이 큰 우주파편들, 그리고 임무가 종료된 폐기위성을 직접 제거해 나가는 것이다. 본 논문에서는 영상기반 우주파편 추적시스템의 안정적인 인식모델을 위해 인공신경망을 적용한 연구에 대해 다루었다. 한국항공우주연구원에서 개발한 지상기반 우주쓰레기 청소위성 테스트베드인 KARICAT을 활용하여 우주환경이 모사된 영상을 획득하였고, 깊이불연속성에 기인한 영상분할 후 각 객체에 대한 구조 및 색상 기반 특징을 부호화한 벡터를 추출하였다. 특징벡터는 3차원 표면적, 점군의 주성분 벡터, 2차원 형상정보, 색상기반 정보로 구성되어있으며, 이 범주를 기반으로 분리한 특징벡터를 입력으로 하는 인공신경망 모델을 설계하였다. 또한 인공신경망의 성능 향상을 위해 입력되는 특징벡터의 범주에 따라 모델을 분할하여 각 모델 별 학습 후 앙상블기법을 적용하였다. 적용 결과 앙상블 기법에 따른 인식 모델의 성능 향상을 확인하였다.

임상표적체적 결정을 위한 기능 영상 기반 생물학적 인자 맵핑 소프트웨어 개발 (Development of the Multi-Parametric Mapping Software Based on Functional Maps to Determine the Clinical Target Volumes)

  • 박지연;정원균;이정우;이경남;안국진;홍세미;주라형;최보영;서태석
    • 한국의학물리학회지:의학물리
    • /
    • 제21권2호
    • /
    • pp.153-164
    • /
    • 2010
  • 혈관분포도(vascularity) 및 세포조밀도(cellularity)와 같은 종양의 생물학적 특성을 고려한 임상표적체적을 결정하기 위하여, 국부혈류용적영상(regional cerebral blood volume map, rCBV map)과 겉보기확산계수영상(apparent diffusion coefficient map, ADC map)의 종양 체적을 해부학적 영상 위에 맵핑 할 수 있는 소프트웨어를 개발하였다. 개발한 프로그램은 해부학적 영상 및 기능 영상 간 mutual information, affine transform, non-rigid registration을 이용한 영상 정합 기능을 제공한다. 영상 정합 후 기준 영상과 정합된 영상에서 획득한 각 segmented bone의 겹치는 체적 비율 및 contour 간 평균 거리를 이용하여 정합도 평가도 가능하다. 잔여 종양이 있는 악성신경아교종 환자의 영상을 이용하여 소프트웨어의 기능을 평가하였을 때, bone segmentation과 contour 간 평균 거리 차이를 이용한 정합도는 각각 약 74%와 2.3 mm였으며, 수동정합을 이용하여 2~5% 정도의 정합도를 향상 시킬 수 있었다. 종양의 생물학적 특성을 치료 계획에 반영할 수 있도록, color map을 이용하여 rCBV map을 분석하였으며, ADC map에서 설정한 관심 영역의 평균 확산 계수와 표준 편차 등을 계산하여 종양의 예후 인자 및 악성도를 평가하였다. 두 기능 영상이 공통적으로 나타내는 종양 체적에서 얻은 생물학적 인자를 평면 위에 맵핑하여 종양의 특성을 쉽게 파악할 수 있는 multi-functional parametric map을 구성하였다. 또한 각기능 인자에 대응되는 악성 종양의 임계값을 적용하여 주변 종양 세포에 비하여 혈관 분포도는 높으면서 확산 계수는 낮아 악성 종양 세포일 확률이 높은 영역을 구분할 수 있었다. 각 기능 영상 위에서 설정한 생물학적 종양 체적 및 악성도가 높은 국소 체적은 해부학적 영상 위에 표시하여 dicom 파일로 출력할 수 있었다. 개발한 소프트웨어는 기능적 다중영상을 이용하여 생물학적 종양 체적을 해부학적 영상 위에 맵핑하는데 적용할 수 있으며, 해부학적 영상에서 파악하기 어려운 종양의 특성 변화들을 치료 계획에 활용할 수 있다. 나아가 개발한 소프트웨어를 이용하여, 한 종류의 영상을 참고하여 종양 체적을 결정했을 때 발생할 수 있는 오류를 줄이고, 치료 전이나 치료 과정에서 나타나는 종양의 조직학적, 생리학적 특성을 치료 계획에 접목하는데 활용할 수 있다.