• 제목/요약/키워드: image feature extraction

검색결과 1,017건 처리시간 0.025초

시각적 특징을 기반한 샷 클러스터링을 통한 비디오 씬 탐지 기법 (Video Scene Detection using Shot Clustering based on Visual Features)

  • 신동욱;김태환;최중민
    • 지능정보연구
    • /
    • 제18권2호
    • /
    • pp.47-60
    • /
    • 2012
  • 비디오 데이터는 구조화되지 않은 복합 데이터의 형태를 지닌다. 이러한 비디오 데이터의 효율적인 관리 및 검색을 위한 비디오 데이터 구조화의 중요성이 대두되면서 콘텐츠 내 시각적 특징을 기반으로 비디오 씬(scene)을 탐지하고자 하는 연구가 활발히 진행되었다. 기존의 연구들은 주로 색상 정보만을 이용하여 샷(shot) 간의 유사도 평가를 기반한 클러스터링(clustering)을 통해 비디오 씬을 탐지하고자 하였다. 하지만 비디오 데이터의 색상 정보는 노이즈(noise)를 포함하고, 특정 사물의 개입 등으로 인해 급격하게 변화하기 때문에 색상만을 특징으로 고려할 경우, 비디오 샷 혹은 씬에 대한 올바른 식별과 디졸브(dissolve), 페이드(fade), 와이프(wipe)와 같은 화면의 점진적인 전환(gradual transitions) 탐지는 어렵다. 이러한 문제점을 해결하기 위해, 본 논문에서는 프레임(frame)의 컬러 히스토그램과 코너 에지, 그리고 객체 컬러 히스토그램에 해당하는 시각적 특징을 기반으로 동일한 이벤트를 구성하는 의미적으로 유사한 샷의 클러스터링을 통해 비디오 씬을 탐지하는 방법(Scene Detector by using Color histogram, corner Edge and Object color histogram, SDCEO)을 제안한다. SDCEO는 샷 바운더리 식별을 위해 컬러 히스토그램 분석 단계에서 각 프레임의 컬러 히스토그램 정보를 이용하여 1차적으로 연관성 있는 연속된 프레임을 샷 바운더리로 병합한 후, 코너 에지 분석 단계에서 병합된 샷 내 처음과 마지막 프레임의 코너 에지 특징 비교를 통하여 샷 바운더리를 정제하여 최종 샷을 식별한다. 키프레임 추출 단계에서는 샷 내 프레임간 유사도 비교를 통해 모든 프레임과 가장 유사한 프레임을 각 샷을 대표하는 키프레임으로 추출한다. 그 후, 비디오 씬 탐지를 위해, 컬러 히스토그램과 객체 컬러 히스토 그램에 해당하는 프레임의 시각적 특징을 기반으로 상향식 계층 클러스터링 방법을 이용하여 의미적인 연관성을 지니는 샷의 군집화를 통해 비디오 씬을 탐지하는 방법이다. 본 논문에서는 SDCEO의 프로토 타입을 구축하고 3개의 비디오 데이터를 이용한 실험을 통하여 SDCEO의 효율성을 평가하였고 샷 바운더리 식별의 성능의 정확도는 평균 93.3%, 비디오 씬 탐지 성능의 정확도는 평균 83.3%로 만족할만한 성능을 보였다.

효율적인 이동물체 분할과 고속 추적 알고리즘에 관한 연구 (A Study on Effective Moving Object Segmentation and Fast Tracking Algorithm)

  • 조영석;이주신
    • 정보처리학회논문지B
    • /
    • 제9B권3호
    • /
    • pp.359-368
    • /
    • 2002
  • 본 논문에서는 매칭 에러 영상과 이동벡터를 이용한 효율적인 이동물체 외곽선 검출 알고리즘과 부분외곽선 정보를 이용한 이동물체 고속 추적 알고리즘을 제안하였다. 이동물체의 외곽선 검출은 watershed 알고리즘을 기반으로 확률분포함수를 적용하여 seed 영역을 생성하고 seed 영역을 확장하여 이동물체의 윤곽선을 검출한 다음 이동벡터를 이용하여 최종 외곽선을 추출한다. 외곽선 중 일부를 특징으로 하여 이동물체를 추적하는 알고리즘을 사용하였다. 이동물체 초기 특징 벡터는 이동물체의 외곽선 영역 중 상하좌우의 외곽선 일부분을 특징벡터로 정한다. 다음은 추적단계로 이전 프레임에서 얻은 특징벡터를 이용하여 현재 프레임에서 이동물체의 추적을 수행하였다. 실제영상에 대하여 제안된 알고리즘으로 이동물체추적 모의 실험을 수행한 결과 기존 능동 윤곽선 추적알고리즘은 물체 외곽선 전체를 추적하기 때문에 물체의 외곽선 길이에 따라 처리시간이 변화하지만 제안된 알고리즘은 이동물체의 외곽선 영역을 특징정보로 하여 추적하기 때문에 추적 연산이 간단하였다. 고속이동벡터를 추출 BMA 연산은 기존 알고리즘 보다 연산량이 약 39% 감소였고, 이동 물체 외곽선 검출 알고리즘은 과분할 문제점이 발생하지 않았으며, 상하 좌우 외곽선 정보를 이용하여 이동물체를 추적한 결과 추적오차는 특징벡터의 크기가 $(15\times{5)}$일 때 검색오차가 4 화소 이하로 양호하게 나타났다.

얼굴 검출을 위한 Flood Fill 기반의 개선된 피부색 추출기법 (Improved Skin Color Extraction Based on Flood Fill for Face Detection)

  • 이동우;이상훈;한현호;채규수
    • 한국융합학회논문지
    • /
    • 제10권6호
    • /
    • pp.7-14
    • /
    • 2019
  • 본 논문에서는 YCbCr 색공간을 이용한 피부색 추출에서 조명과 그림자에 의한 손실 영역을 Flood Fill 알고리즘을 이용하여 보완하고 Haar-like 특징을 이용한 Cascade Classifier 얼굴 검출 방법을 제안하였다. Haar-like 특징을 이용한 Cascade Classifier는 이미지에서 기존의 YCbCr 색공간을 이용한 피부색 추출은 단순히 임계값만 사용하기 때문에 조명, 그림자 등에 의해 잡음과 손실 영역이 발생할 수 있다. 이러한 문제를 해결하기 위해 침식, 팽창 연산을 사용하여 잡음을 제거하였고 손실 영역을 추정하기 위해 Flood Fill 알고리즘을 사용하여 손실 영역을 추정하였다. 추정한 영역에 대하여 YCbCr 색공간의 임계값을 추가로 허용하였다. 나머지 손실영역에 대하여 위에서 추정한 영역중 추가로 허용한 영역의 평균값으로 색을 채워 넣었다. 추출한 이미지에 Haar-like Cascade Classifier를 사용하여 얼굴을 검출하였다. 기존의 Haar-like Cascade Classifier의 방법보다 제안하는 방법이 정확도가 약 4% 향상되었으며 YCbCr 색공간만을 이용한 피부색 추출보다 제안하는 방법의 검출률이 약 2% 향상되었다.

Development of On-line Quality Sorting System for Dried Oak Mushroom - 3rd Prototype-

  • 김철수;김기동;조기현;이정택;김진현
    • Agricultural and Biosystems Engineering
    • /
    • 제4권1호
    • /
    • pp.8-15
    • /
    • 2003
  • In Korea, quality evaluation of dried oak mushrooms are done first by classifying them into more than 10 different categories based on the state of opening of the cap, surface pattern, and colors. And mushrooms of each category are further classified into 3 or 4 groups based on its shape and size, resulting into total 30 to 40 different grades. Quality evaluation and sorting based on the external visual features are usually done manually. Since visual features of mushroom affecting quality grades are distributed over the entire surface of the mushroom, both front (cap) and back (stem and gill) surfaces should be inspected thoroughly. In fact, it is almost impossible for human to inspect every mushroom, especially when they are fed continuously via conveyor. In this paper, considering real time on-line system implementation, image processing algorithms utilizing artificial neural network have been developed for the quality grading of a mushroom. The neural network based image processing utilized the raw gray value image of fed mushrooms captured by the camera without any complex image processing such as feature enhancement and extraction to identify the feeding state and to grade the quality of a mushroom. Developed algorithms were implemented to the prototype on-line grading and sorting system. The prototype was developed to simplify the system requirement and the overall mechanism. The system was composed of automatic devices for mushroom feeding and handling, a set of computer vision system with lighting chamber, one chip microprocessor based controller, and pneumatic actuators. The proposed grading scheme was tested using the prototype. Network training for the feeding state recognition and grading was done using static images. 200 samples (20 grade levels and 10 per each grade) were used for training. 300 samples (20 grade levels and 15 per each grade) were used to validate the trained network. By changing orientation of each sample, 600 data sets were made for the test and the trained network showed around 91 % of the grading accuracy. Though image processing itself required approximately less than 0.3 second depending on a mushroom, because of the actuating device and control response, average 0.6 to 0.7 second was required for grading and sorting of a mushroom resulting into the processing capability of 5,000/hr to 6,000/hr.

  • PDF

딥러닝을 이용하여 생성한 초해상화 드론 영상의 정량적 평가 (Quantitative Evaluation of Super-resolution Drone Images Generated Using Deep Learning)

  • 서홍덕;소형윤;김의명
    • 지적과 국토정보
    • /
    • 제53권2호
    • /
    • pp.5-18
    • /
    • 2023
  • 드론과 센서의 발달이 가속화됨에 따라 드론에 장착된 다양한 센서로 취득된 데이터를 융합하여 새로운 서비스 및 가치를 창출하고 있다. 그러나 데이터 융합을 통한 공간정보 구축은 주로 영상에 의존하여 구축하며, 하드웨어의 사양 및 성능에 따라 데이터 품질이 결정된다. 또한, 고품질 공간정보를 구축하기 위해 고가 장비가 요구되므로 실제 현장에서 사용하기에는 어려운 실정이다. 본 연구에서는 드론에 장착된 RGB 및 THM 카메라를 통해 취득된 저해상도 영상을 딥러닝에 적용하여 초해상화를 수행하고, 이를 통해 생성된 고해상도 영상의 정량적 평가 및 특징점 추출에 대한 평가를 수행하였다. 실험 결과 초해상화를 수행하여 생성된 고해상도 영상은 원본 영상의 특징을 유지하고 있었으며, 해상도가 개선됨에 따라 원본 영상 대비 많은 특징을 추출할 수 있었다. 따라서, 저해상도 영상을 초해상화 딥러닝 모델에 적용하여 고해상도 영상을 생성할 경우 하드웨어에 제약을 받지 않고 고품질의 공간정보를 구축하기 위한 새로운 방법일 것으로 판단하였다.

하나의 IMU를 이용한 앉은 자세 분류 연구 (Research on Classification of Sitting Posture with a IMU)

  • 김연욱;조우형;전유용;이상민
    • 재활복지공학회논문지
    • /
    • 제11권3호
    • /
    • pp.261-270
    • /
    • 2017
  • 바르지 못한 앉은 자세는 다양한 질병과 신체 변형을 유발한다. 하지만 오랜 시간동안 바른 앉은 자세를 유지하는 것은 쉬운 일이 아니다. 이러한 이유 때문에 그동안 자동으로 바른 앉은 자세를 유도하기 위한 다양한 시스템이 제안되어왔다. 이전에 제안되었던 앉은 자세 판별 및 바른 앉은 자세 유도 시스템은 영상 처리를 이용한 방법, 의자에 압력센서를 달아 측정하는 방법, IMU(Internal Measurement Unit)를 이용한 방법이 있었다. 이 중 IMU를 이용한 측정 방법은 하드웨어 구성이 간단하고, 공간, 광량 등의 환경적 제한이 적어 측정에 있어서 용이한 이점이 있었다. 본 논문에서는 하나의 IMU를 이용하여 적은 데이터로 효율적으로 앉은 자세를 분류하는 방법을 연구하였다. 특징추출 기법을 이용하여 데이터 분류에 기여도가 낮은 데이터를 제거하였으며, 머신러닝 기법을 이용하여 앉은 자세 분류에 적합한 센서 위치를 찾고, 여러 개의 머신러닝 모델 중 가장 분류 정확도가 높은 머신러닝 모델을 선정하였다. 특징추출 기법은 PCA(Principal Component Analysis)를 사용하였고, 머신러닝 모델은 SVM(Support Vector Machine), KNN(K Nearest Neighbor), K-means (K-means Algorithm) GMM (Gaussian Mixture Model), and HMM (Hidden Marcov Model)모델을 사용하였다. 연구결과 데이터 분류율이 높게나온 뒷목이 적합한 센서 위치가 되었으며, 센서 데이터 중 Yaw데이터는 분류 기여도가 가장 낮은 데이터임을 PCA 특징추출 기법을 이용하여 확인하고, 제거하여도 분류율에 영향이 매우 작음을 확인하였다. 적합 머신러닝 모델은 SVM, KNN 모델로 다른 모델에 비하여 분류율이 높게 나오는 것을 확인할 수 있었다.

서베일런스에서 피셔의 선형 판별 분석을 이용한 사람 검출의 성능 향상 (Improve the Performance of People Detection using Fisher Linear Discriminant Analysis in Surveillance)

  • 강성관;이정현
    • 디지털융복합연구
    • /
    • 제11권12호
    • /
    • pp.295-302
    • /
    • 2013
  • 사람 검출은 정지된 영상 혹은 동영상으로부터 사람의 움직임이나 자세를 추정하고, 사람이 찾아질 경우 영상 내 사람의 좌표, 동작 인식, 보안관련 인증 등을 알아내는 기술로 정의된다. 이러한 사람 검출은 다른 객체의 검출이나 사람과 컴퓨터와의 상호작용, 동작 인식 등의 기초 기술로서 해당 시스템의 성능에 영향을 미치는 매우 중요한 변수 중에 하나이다. 그러나 영상 내의 사람은 움직임, 자세, 크기, 빛의 방향 및 밝기, 다른 객체와의 중복 등의 환경적 변화로 인해 사람 모양이 다양해지므로 정확하고 빠른 검출이 어렵다. 따라서 본 논문에서는 피셔의 선형 판별 분석을 이용하여 몇 가지 환경적 조건을 극복한 정확하고 빠른 사람 검출 방법을 제안한다. 제안된 방법은 사람 움직임 및 자세와 배경에 무관하게 빠른 시간 안에 사람을 검출하는 것이 가능하다. 이를 위해 계층적인 방법으로 사람 검출을 수행하며, 휴리스틱한 방법, 피셔의 판별 분석을 이용하여 사람 검출을 수행하고, 검색 영역의 축소와 선형 결정의 계산 시간의 단축으로 검출 응답 시간을 빠르게 하였다. 추출된 사람 영상에서 사람의 자세를 추정하고 사람의 영역을 검출함으로써 사람 정보의 사용에 있어 보다 많은 정보를 추출할 수 있도록 하였다.

초음파 볼륨에서 웨이브렛 변환을 이용한 전립선 객체 추출 (Prostate Object Extraction in Ultrasound Volume Using Wavelet Transform)

  • 오종환;김상현;김남철
    • 전자공학회논문지SC
    • /
    • 제43권3호
    • /
    • pp.67-77
    • /
    • 2006
  • 본 논문에서는 웨이브렛 변환과 SVM 분류기를 이용하여 3차원 초음파 볼륨으로부터 전립선 객체를 추출하는 방법을 제안한다. 제안한 방법에서는 웨이브렛 변환의 수평 수직 방향의 상세 영상들의 평균치들로부터 웨이브렛 변환 모듈러스 영상을 구함으로써 잡음전력 대비 전립선 윤곽에 대한 국부 최대치들의 첨예도가 큰 모듈러스 영상을 얻을 수 있다. 또한 전립선의 밝기 변이 특성 및 전립선 내외부의 질감 차이 등을 특징으로 한 SVM 분류기를 이용함으로써 전립선 윤곽 추출의 정확도를 크게 향상시킬 수 있다. 실험 결과, 제안한 방법을 이용하여 전립선 윤곽을 찾을 경우 전문가에 의하여 추출된 윤곽과 비교하여 절대 평균 거리가 1.89로 나타났다.

개선된 Seam Finder를 이용한 360 VR 이미지 스티칭 기술 (Advanced Seam Finding Algorithm for Stitching of 360 VR Images)

  • 손희정;한종기
    • 방송공학회논문지
    • /
    • 제23권5호
    • /
    • pp.656-668
    • /
    • 2018
  • 스티칭 기술은 고화질의 360 VR 영상을 제작하는 과정에서 가장 중요한 요소 기술들 중의 하나이다. 스티칭 기술의 성능을 저하시키는 원인들에는 특징점 추출 과정의 오류, seam finding 과정에서 사용되는 마스크의 왜곡으로 발생하는 오류, 각 영상들의 밝기 보상 오류 등 다양한 원인들이 존재한다. 본 논문에서는 합성되는 각 영상들 간의 시차(View Disparity)가 존재함으로써 스티칭 성능이 저하되는 현상을 분석하고, 이 문제를 해결하기 위해 이음부 탐색(seam finding)의 전처리 과정에서 사용되는 효율적인 알고리즘을 제안한다. 본 논문에서 제안하는 기술을 통해 기존 방법보다 개선된 마스크들을 제작하여 효율적인 이음부 탐색(seam finding)이 수행되도록 하고, 그 결과 개선된 화질을 갖는 360 VR 영상을 얻을 수 있음을 설명한다. 본 논문에서 실시된 다양한 실험들을 통해, 제안된 기술이 시차 왜곡이 존재하는 영상 신호들을 합성하는 과정에 효율적이면서 동작 복잡도도 높지 않음을 보이고 있다.

에이다부스트 학습을 이용한 문자 데이터 검출 방법 (A Method of Detecting Character Data through a Adaboost Learning Method)

  • 장석우;변시우
    • 한국산학기술학회논문지
    • /
    • 제18권7호
    • /
    • pp.655-661
    • /
    • 2017
  • 입력되는 정지 또는 동영상에 포함된 문자 정보는 영상의 내용을 대표하는 주요한 핵심 정보를 제공할 수 있기 때문에 다양한 종류의 영상 데이터를 분석하여 영상 내에 포함된 문자 영역들을 정확하게 추출하는 작업은 매우 중요하다. 본 논문에서는 입력되는 영상으로부터 MCT 특징과 에이다부스트(Adaboost) 알고리즘을 이용하여 문자 영역만을 정확하게 검출하는 새로운 방법을 제안한다. 본 논문에서 제안된 방법에서는 먼저 입력 영상으로부터 MCT 특징과 에이다부스트 알고리즘을 이용하여 문자의 후보 영역들을 추출한다. 그런 다음, 기하학적인 특징을 활용하여 추출된 문자의 후보 영역들로부터 비 문자 영역들을 제외하고 실제적인 문제 영역들만을 검출한다. 실험 결과에서는 제안된 방법이 입력되는 다양한 영상으로부터 기존의 방법보다 문자 영역들을 2.1% 보다 강인하게 추출한다는 것을 보여준다. 본 논문에서 제안된 문자 영역 검출 방법은 상점의 간판 인식, 자동차의 번호판 인식 등과 같은 멀티미디어 및 영상 처리와 관련된 실제 응용 분야에서 매우 유용하게 활용될 것으로 기대된다.