• Title/Summary/Keyword: 영상 특징추출

Search Result 2,333, Processing Time 0.037 seconds

Image Retrieval Using Spacial Color Correlation and Local Texture Characteristics (칼라의 공간적 상관관계 및 국부 질감 특성을 이용한 영상검색)

  • Sung, Joong-Ki;Chun, Young-Deok;Kim, Nam-Chul
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.42 no.5 s.305
    • /
    • pp.103-114
    • /
    • 2005
  • This paper presents a content-based image retrieval (CBIR) method using the combination of color and texture features. As a color feature, a color autocorrelogram is chosen which is extracted from the hue and saturation components of a color image. As a texture feature, BDIP(block difference of inverse probabilities) and BVLC(block variation of local correlation coefficients) are chosen which are extracted from the value component. When the features are extracted, the color autocorrelogram and the BVLC are simplified in consideration of their calculation complexity. After the feature extraction, vector components of these features are efficiently quantized in consideration of their storage space. Experiments for Corel and VisTex DBs show that the proposed retrieval method yields 9.5% maximum precision gain over the method using only the color autucorrelogram and 4.0% over the BDIP-BVLC. Also, the proposed method yields 12.6%, 14.6%, and 27.9% maximum precision gains over the methods using wavelet moments, CSD, and color histogram, respectively.

Evaluation on Tie Point Extraction Methods of WorldView-2 Stereo Images to Analyze Height Information of Buildings (건물의 높이 정보 분석을 위한 WorldView-2 스테레오 영상의 정합점 추출방법 평가)

  • Yeji, Kim;Yongil, Kim
    • Journal of the Korean Society of Surveying, Geodesy, Photogrammetry and Cartography
    • /
    • v.33 no.5
    • /
    • pp.407-414
    • /
    • 2015
  • Interest points are generally located at the pixels where height changes occur. So, interest points can be the significant pixels for DSM generation, and these have the important role to generate accurate and reliable matching results. Manual operation is widely used to extract the interest points and to match stereo satellite images using these for generating height information, but it causes economic and time consuming problems. Thus, a tie point extraction method using Harris-affine technique and SIFT(Scale Invariant Feature Transform) descriptors was suggested to analyze height information of buildings in this study. Interest points on buildings were extracted by Harris-affine technique, and tie points were collected efficiently by SIFT descriptors, which is invariant for scale. Searching window for each interest points was used, and direction of tie points pairs were considered for more efficient tie point extraction method. Tie point pairs estimated by proposed method was used to analyze height information of buildings. The result had RMSE values less than 2m comparing to the height information estimated by manual method.

A Study on Face Recognition using Neural Networks and Characteristics Extraction based on Differential Image and DCT (차영상과 DCT 기반 특징 추출과 신경망을 이용한 얼굴 인식에 관한 연구)

  • 임춘환;고낙용;박종안
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.24 no.8B
    • /
    • pp.1549-1557
    • /
    • 1999
  • In this paper, we propose a face recognition algorithm based on the differential image method-DCT This algorithm uses neural networks which is flexible for noise. Using the same condition (same luminous intensity and same distance from the fixed CCD camera to human face), we have captured two images. One doesn't contain human face. The other contains human face. Differential image method is used to separate the second image into face region and background region. After that, we have extracted square area from the face region, which is based on the edge distribution. This square region is used as the characteristics region of human face. It contains the eye bows, the eyes, the nose, and the mouth. After executing DCT for this square region, we have extracted the feature vectors. The feature vectors were normalized and used as the input vectors of the neural network. Simulation results show 100% recognition rate when face images were learned and 92.25% recognition rate when face images weren't learned for 30 persons.

  • PDF

Image Retrieval Using Color feature and GLCM and Direction in Wavelet Transform Domain (Wavelet 변환 영역에서 칼라 정보와 GLCM 및 방향성을 이용한 영상 검색)

  • 이정봉
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2002.05a
    • /
    • pp.585-589
    • /
    • 2002
  • In this paper, hierarchical retrieval system based on efficient feature extraction is proposed. In order to retrieval the image with robustness for geometrical transformation such as translation, scaling, and rotation. After performing the 2-level wavelet transform on image, We extract moment in low-level subband which was subdivided into subimages and texture feature, contrast of GLCM(Gray Level Co-occurrence Matrix). At first we retrieve the candidate images in database by the ones of image. To perform a more accurate image retrieval, the edge information on the high-level subband was subdivided horizontally, vertically and diagonally. And then, the energy rate of edge per direction was determined and used to compare the energy rate of edge between images for higher accuracy.

  • PDF

Automatic analysis of golf swing from single-camera video sequences (단일 카메라 영상으로부터 골프 스윙의 자동 분석)

  • Kim, Pyeoung-Kee
    • Journal of Korea Society of Industrial Information Systems
    • /
    • v.14 no.5
    • /
    • pp.139-148
    • /
    • 2009
  • In this paper, I propose an automatic analysis method of golf swine from single-camera video sequences. I define necessary swing features for automatic swing analysis in 2-dimensional environment and present efficient swing analysis methods using various image processing techniques including line and edge detection. The proposed method has two characteristics compared with previous swing analysis systems and related studies. First, the proposed method enables an automatic swing analysis in 2-dimension while previous systems require 3-dimensional environment which is relatively complex and expensive to run. Second, swing analysis is done automatically without human intervention while other 2-dimensional systems necessarily need analysis by a golf expert. I tested the method on 20 swing video sequences and found the proposed method works effective for automatic analysis of golf swing.

CT 영상에서의 간 영역 추출 및 간 종양 분석

  • Jang Do-Won;Lim Eun-Kyung;Kim Chang-Won;Kim Min-Hwan;Kim Kwang-Baek
    • Proceedings of the Korea Inteligent Information System Society Conference
    • /
    • 2006.06a
    • /
    • pp.183-192
    • /
    • 2006
  • 간세포암은 우리나라에서 전체 암사망자 중 17.2%로 3번째의 흔한 사망원인이며, 간암에 의한 사망률은 인구 10만 명당 약 21명에 이른다. 본 논문에서는 간 내부에서 발생하는 간세포암을 CT 영상에서 자동으로 추출하는 방법을 제안하여 간세포암의 보조진단으로서의 유용성에 대해 알아보고자 한다. 간 내부의 종양을 추출하기 위해 흉부의 윗부분에서 시작하여 2.5mm의 간격으로 약 45-50장 정도를 촬영한 CT 영상들을 대상으로 먼저 간 영역을 추출한다. 간 영역 추출은 먼저 관심이 없는 외부 영역을 갈비뼈를 중심으로 제거한 후 영상의 밝기 정보를 이용하여 각 기관의 영역을 분할 한다. 분할된 영역들은 위 아래로 인접한 영상에서의 분할 영역들과 밝기 값을 비교하여 적절하게 병합하는 3차원적 접근방법을 사용한다. 간 영역은 여러개의 영역들 중에서 간 영역의 구조 및 위치 등의 정보를 활용하여 추출한다. 추출된 간 영역에서 종양 판별과 추출을 위해 종양이 가지는 특징을 분석하여 종양을 추출한다. 전형적인 간세포암은 과혈관성 종양이므로 조영증강 CT 영상에서 주위보다 밝은 색으로 나타나며, 팽창 형성장을 보일 경우에는 구형으로 나타나는 특징이 있다. 이에, 주위 보다 밝은 색을 가지고 둥근형태를 가지는 영역을 종양의 후보영역으로 선정한 후, 그 영상의 위와 아래로 연결되는 영상에서도 같은 위치에서 같은 특징을 보이는 영역이 있으면 간 내부의 종양으로 판별하여 추출한다. 제안된 간 영역 및 간 종양 추출 방법의 정확성을 판별하기 위하여 CT 영상을 대상으로 실험하여 영상의학 전문의가 판단한 결과와 비교하였다. 간 영역 추출은 정확히 모두 추출되었으며, 간 종양 추출 및 판별은 전문의의 보조 진단도구로 활용할 수 있는 가능성이 매우 높다는 것을 확인할 수 있었다.emantic Similarity Measure 등을 단계적으로 수행하여 자동화되고 정확한 규칙식별을 하고자 한다. 이러한 방법들의 조합으로 인하여 규칙구성요소 추출이 되지 않을 후보 단어들의 수를 줄여서 보다 더 정확하고, 지능적인 규칙구성요소 추출 방법론을 제시하고 구현하여 지식관리자의 규칙습득에 대한 부담을 줄여 주고자 한다. 도움을 받을 수 있게 되었다.을 거치도록 되어있다. 교통주제도는 국가의 교통정책결정과 관련분야의 기초자료로서 다양하게 활용되고 있으며, 특히 ITS 노드/링크 기본지도로 활용되는 등 교통 분야의 중요한 지리정보로서 구축되고 있다..20{\pm}0.37L$, 72시간에 $1.33{\pm}0.33L$로 유의한 차이를 보였으므로(F=6.153, P=0.004), 술 후 폐환기능 회복에 효과가 있다. 4) 실험군과 대조군의 수술 후 노력성 폐활량은 수술 후 72시간에서 실험군이 $1.90{\pm}0.61L$, 대조군이 $1.51{\pm}0.38L$로 유의한 차이를 보였다(t=2.620, P=0.013). 5) 실험군과 대조군의 수술 후 일초 노력성 호기량은 수술 후 24시간에서 $1.33{\pm}0.56L,\;1.00{\ge}0.28L$로 유의한 차이를 보였고(t=2.530, P=0.017), 술 후 72시간에서 $1.72{\pm}0.65L,\;1.33{\pm}0.3L$로 유의한 차이를 보였다(t=2.540, P=0.016). 6) 대상자의 술 후 폐환기능에 영향을 미치는 요인은 성별로 나타났다. 이에 따른 폐환기능의 차이를 보면, 실험군의 술 후 노력성 폐활량이 48시간에 남자($1.78{\pm}0.61L$)가 여자(

  • PDF

Hangul Text Detection using Text Corner Edge Feature Analysis in Natural Scene Images (자연영상에서 코너 에지 특징 분석방법을 이용한 한글 텍스트 검출기법에 관한 연구)

  • Park Jong-Cheon;Kwon Kyo-Hyun;Jun Byung-Min
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2005.11a
    • /
    • pp.379-383
    • /
    • 2005
  • 본 연구에서는 자연 이미지에서 한글 텍스트가 갖고 있는 에지 코너 특징을 이용한 한글 텍스트 검출방법을 제안한다. 자연영상으로부터 에지를 검출하고, 검출된 에지를 20종류의 에지 구조 성분을 갖는 에지 맵을 생성한다. 생성된 에지 맵에서 한글 텍스트 특징 갖는 특징들을 조합하여 모두 8가지의 텍스트 영역 후보 특징을 추출한다. 추출된 텍스트 영역의 특징을 수평 및 수직방향으로 검사하여 텍스트의 시작 라인과 끝라인을 검출하여 텍스트 영역의 수평좌표를 구한다. 추출된 텍스트 후보 영역에서 최종적으로 텍스트 영역을 결정한다. 제안한 방법은 다양한 종류의 자연 이미지에서 텍스트 영역을 검출에서 좋은 성능을 나타냈다.

  • PDF

Human Face Recognition using Feature Extraction Based on HOLA(Higher Order Local Autocorrelation) and BP Neural Networks (HOLA 기반 특징추출과 BP 신경망을 이용한 얼굴 인식)

  • 최광미;서요한;정채영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.541-543
    • /
    • 2002
  • 본 논문에서는 HOLA(고차국소자동상관계수)를 이용한 특징추출과 BP(Backpropagation Network) 알고리즘을 이용하여 얼굴을 인식하는 방법을 제안한다. 이를 위해 동일한 환경, 즉 일정한 조도 하에서 카메라로부터 동일거리에 있는 영상을 256$\times$256 크기의 그레이 스케일(Gray Scale)로 취득하여 영상내의 잡음을 가우시안(Gaussian) 필터를 이용하여 제거한다. 차영상을 이용하여 얼굴영역을 분리한 후 얼굴영역의 특징벡터를 구하기 위하여 HOLA(고차 국소 자동 상관함수)를 사용한다. 계산된 특징벡터는 BP 신경망의 학습을 통하여 얼굴인식을 위한 데이터로 사용된다. 시뮬레이션을 통해 제안된 알고리즘에 의한 인식률향상과 속도 향상을 입증한다.

  • PDF

A NOVEL VISUAL ATTENTION SEARCHING SYSTEM ADAPTED ON VARIOUS MOTION OF RECT SIZE (다양한 움직임 영역의 크기에 적응적인 시각 주의 탐색 시스템)

  • Choi, Byung Geun;Cheoi, Kyung Joo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.580-583
    • /
    • 2010
  • 본 논문에서는 동영상을 대상으로 하는 시각 주의 탐색에 대한 새로운 시스템에 대하여 설명한다. 제안하는 시스템은 기존의 공간 주의 모델에 새로운 시간 특징 추출 모듈을 추가함으로써 색상 및 명암, 형태, 방위와 같은 공간 특징 외에 움직임과 같은 시간 특징을 추가로 사용한 시각주의 탐색 모델이다. 기존 시스템과 가장 큰 차이점으로 공간 특징의 가중치 결합 방법과 움직임 특징 추출방법, 공간과 시간 특징 간 결합방법에 있다. 시스템의 성능평가를 위하여 다양한 환경의 영상을 대상으로 실험하였고 제안하는 시스템은 영상에서 사람이 시각적으로 중요하게 인지하는 영역과 부합되는 결과를 보였다.

A Study on Early Prediction Method of Traffic Accidents (교통사고의 사전 예측 방법 연구)

  • Jin, Renjie;Sung, Yunsick
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.05a
    • /
    • pp.441-442
    • /
    • 2022
  • 교통사고 예측은 차량의 블랙박스 동영상을 통해 사고 발생을 최대한 빨리 예측하는 것을 목표로 한다. 이는 안전한 자율주행 시스템을 보장하는 데 중요한 역할을 한다. 다양한 교통 상황과 카메라의 제한된 시야로 인해 프레임에서 사고 가능성을 조기에 관찰하는 것은 어려운 도전이다. 예측의 핵심 기술은 객체의 시공간 관계를 학습하는 것이다. 본 논문에서는 블랙박스 동영상에서 사고 예측을 위한 계산 모델을 제안한다. 이것을 사용하여 사고 예방을 강화한다. 이 모델은 사고 위험에 대한 운전자의 시각적 인식에서 영감을 받았다. 객체 탐지기는 동영상 프레임에서 다양한 객체를 탐지한다. 탐지한 객체는 노드 생성기와 특징 추출기 동시에 통과한다. 노드 생성기에서 생성한 노드는 GCN 실행기를 사용한다. GCN 실행기는 각 프레임에 대한 객체의 3D 위치 관계를 계산한 후 공간 특징을 취득한다. 동시에 공간 특징과 특징 추출기에서 얻은 객체의 특징은 GRU 실행기로 보내진다. GRU 실행기 안에 시공간 특징을 암기하고 분석하여 교통사고 확률을 예측한다.