• Title/Summary/Keyword: 프레임 기반 색인

Search Result 59, Processing Time 0.028 seconds

A Study on the Cut Detection System of Video Data using MSE (MSE를 이용한 동영상데이터의 컷 검출시스템에 관한 연구)

  • Kim Dan-Hwan;Joung Ki-Bong;Oh Moo-Song
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.8 no.7
    • /
    • pp.1399-1404
    • /
    • 2004
  • The development of computer technology and the advancement of the technology of information and communications spread the technology of multimedia and increased the use of multimedia data with large capacity. Users can grasp the overall video data and they are able to play wanted video back. To grasp the overall video data it is necessary to offer the list of summarized video data information. In order to search video efficiently an index process of video data is essential and it is also indispensable skill. Therefore, this thesis suggested the effective method about the cut detection of frames which will become a basis of an index based on contents of video image data. This suggested method was detected as the unchanging pixel rotor intelligence value, classified into diagonal direction. Pixel value of color detected in each frame of video data is stored as A(i, i) matrix - i is the number of frames, i is an image height of frame. By using the stored pixel value as the method of UE(Mean Square Error) I calculated a specified value difference between frames and detected cut quickly and exactly in case it is bigger than threshold value set in advance. To carry out an experiment on the cut detection of lames comprehensively, 1 experimented on many kinds of video, analyzing and comparing efficiency of the cut detection system.

Moving Object Tracking using Particle Filter and Difference Image (파티클 필터와 차영상을 이용한 이동 객체 추적)

  • Kim, Hyo Yeon;Kim, Kisang;Choi, Hyung-Il
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.10a
    • /
    • pp.1461-1463
    • /
    • 2015
  • 본 논문에서는 이동 객체를 추적하기 위해 HSI 색상 모델 기반으로 하는 파티클 필터를 이용하고, 차영상을 통해 추적하고자 하는 객체의 중심점을 보완하는 방법을 제안한다. 색상 모델 기반 파티클 필터로 이동 객체를 추적했을 때, 객체의 색 혼합도의 문제로 객체의 중심과 파티클들의 분포에 대한 정확성이 떨어져 추적의 어려움이 있다. 이 문제를 해결하기 위해 각 프레임마다 차영상을 만들어 이동객체의 중심점을 찾고, 파티클 필터로 추적한 중심점과 비교하여 객체의 중심점을 보완해 추적에 대한 정확성을 높일 수 있다.

An Affective 3D Facial Makeup Simulation Using a Multi-sensory Interaction (다중 감각 인터랙션을 이용한 감성적 3차원 얼굴 메이크업 시뮬레이션)

  • Kim, Jeong-Sik;Kim, Hyeon-Joong;Choi, Soo-Mi
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.500-506
    • /
    • 2007
  • 얼굴에 대한 시각적 인지는 오랫동안 인간에게 중요한 문제로 인식되어 왔다. 수 세기 동안 이루어져 왔던 미용 화장과 성형, 치아 교정 등의 다양한 연구는 사람의 얼굴을 감성적 측면에서 어떻게 하면 아름답게 만들 수 있는 가에 초점을 두었다. 본 논문에서는 휴먼 입출력 인터페이스로서 햅틱 장치와 스테레오 디스플레이를 혼합한 다중 감각 인터랙션 기반의 감성적인 3차원 얼굴 메이크업 시뮬레이션 프레임워크를 개발한다. 본 연구는 3차원 스캐너 장비로부터 사용자의 얼굴 모델을 추출하고, 그 데이터를 이용하여 자연스럽고 직관적인 얼굴 메이크업 시뮬레이션을 수행하는 것을 목표로 하고 있다. 이를 위하여 본 연구에서는 surface elements 표현 기반의 3차원 얼굴 필터링 방법과 얼굴 메이크업을 지원하는 페인팅 방법을 개발한다. 우선 사용자의 얼굴 모델을 3차원 스캐너로 획득한 후, 전처리 얼굴 필터링을 수행하여 조명, 그리고 사용자 얼굴 피부 상태에 기인하는 에러 및 속성들을 보정하고 피부 톤을 사용자가 선호하는 색으로 변경한다. 최종적으로 사용자는 햅틱 및 스테레오 디스플레이 장치를 이용하여 두 개의 레이어로 구성된 페인팅 표면 모델에 메이크업을 수행한다. 본 연구에서 적용한 surface elements 표현 기반의 그래픽 렌더링은 일반적인 메쉬 기반 페인팅의 문제점인 텍스쳐 왜곡 현상을 완화하고, 3차원 스캐너 장치에 기인하는 표면 에러를 보정한다. 그리고 전처리 얼굴 필터링과 메이크업 페인팅 방법은 사용자 중심의 감성적인 3차원 얼굴을 재구성하도록 한다. 결과적으로 본 연구에서 개발한 이러한 기술들이 다중 감각 인터페이스 기반의 메이크업 시뮬레이터의 기본 프레임워크가 되어, 차후 메이크업이나 코디네이션 분야 등의 디지털 콘텐츠 산업에서 활용될 수 있음을 확인하였다.

  • PDF

Spatial Join based on the Transform-Space View (변환공간 뷰를 기반으로한 공간 조인)

  • 이민재;한욱신;황규영
    • Journal of KIISE:Databases
    • /
    • v.30 no.5
    • /
    • pp.438-450
    • /
    • 2003
  • Spatial joins find pairs of objects that overlap with each other. In spatial joins using indexes, original-space indexes such as the R-tree are widely used. An original-space index is the one that indexes objects as represented in the original space. Since original-space indexes deal with sizes of objects, it is difficult to develop a formal algorithm without relying on heuristics. On the other hand, transform-space indexes, which transform objects in the original space into points in the transform space and index them, deal only with points but no sites. Thus, spatial join algorithms using these indexes are relatively simple and can be formally developed. However, the disadvantage of transform-space join algorithms is that they cannot be applied to original-space indexes such as the R-tree containing original-space objects. In this paper, we present a novel mechanism for achieving the best of these two types of algorithms. Specifically, we propose a new notion of the transform-space view and present the transform-space view join algorithm(TSVJ). A transform-space view is a virtual transform-space index based on an original-space index. It allows us to interpret on-the-fly a pre-built original-space index as a transform-space index without incurring any overhead and without actually modifying the structure of the original-space index or changing object representation. The experimental result shows that, compared to existing spatial join algorithms that use R-trees in the original space, the TSVJ improves the number of disk accesses by up to 43.1% The most important contribution of this paper is to show that we can use original-space indexes, such as the R-tree, in the transform space by interpreting them through the notion of the transform-space view. We believe that this new notion provides a framework for developing various new spatial query processing algorithms in the transform space.

Object Segmentation using Temporal and Spatial Information (시간 정보와 공간 정보를 이용한 객체 추출)

  • 김창근;유재명;이귀상
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.766-768
    • /
    • 2004
  • 동영상에서 객체의 추출은 객체 단위로 압축하는 MPEG-4와 객체의 특성을 기술하고 유사한 영상을 검색하는 기능을 가진 MPEG-7에 기반 기술로, 동영상의 효과적인 압축 및 색인, 검색에 유용하게 사용되는 방법이다. 본 논문에서는 시간적 정보와 공간적 정보를 이용한 영상 분할 방법을 제시한다. 동영상은 배경 화면과 전방 객체로 이루어져 있는데, 여기서 프레임간 모션벡터로 글로벌영상(배경영상)의 움직임을 분리할 수 있다. 이 Motion-based Segmentation을 통해 배경과 전방객체를 분리하여 rough한 전방객체를 추출하게 된다. 그리고 시간적 분할을 통해 얻은 rough한 전방객체에 모폴로지 변환과 Watershed 알고리즘을 적용하여 배경과 전방객체의 모호한 부분을 제거함으로써 효과적으로 전방객체를 추출한다.

  • PDF

Real-time Expression Control of Vision Based 3 Dimensional Face Model (비전 기반 3차원 얼굴 모델의 실시간 표정 제어)

  • 김정기;민경필;전준철
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.10b
    • /
    • pp.748-750
    • /
    • 2004
  • 본 논문은 연속적으로 입력되는 2차원 얼굴 영상에서 얼굴의 특징 영역들을 추출하여 3차원 얼굴 모델의 표정을 실시간으로 제어하는 방법에 관한 연구이다. 2차원 얼굴 영상에서 얼굴을 추출하기 위해 Hue, Saturation 색상 값을 사용하며, 두 가지 색상 값을 이용하여 피부색과 배경색을 분리함으로써 얼굴 영역을 추출 할 수 있다. 추출 된 얼굴에서 특징 영역인 눈 코, 입술 영역 등의 일지를 각각의 영역에 적합한 추출 방법을 이용하여 추출한 뒤, 프레임 별로 영역들의 움직임을 비교함으로써 영역의 움직임 정보를 획득 할 수 있다. 이 정보를 3차원 얼굴 모델에 적용하여 2차원 동영상에서 획득된 대상의 얼굴의 표정을 3차원 얼굴 모델에 실시간으로 표현 할 수 있도록 한다.

  • PDF

Retrieval System for Query-by-face environment (얼굴에 의한 질의' 환경을 위한 검색 시스템)

  • 고병철;안준한;이해성;변혜란
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10b
    • /
    • pp.356-358
    • /
    • 1999
  • 최근 몇 년 동안 멀티미디어 정보의 급격한 증가와 더불어, 사용자에게 다양한 형태의 검색 환경 제공하기 위한 연구들이 꾸준히 이루어지고 있지만, '얼굴에 의한 질의(Query-by-face)'에 대한 연구는 다른 검색 방법에 비해 상대적으로 미약한 편이다. 얼굴 검색은 일반적인 내용기반 검색 분야에 비해 어려운 분야로 현재 대부분의 얼굴 인식 및 검색 시스템들은 일정한 배경 및 조명, 동일한 얼굴 크기를 갖는 한정된 형태의 데이터만을 사용한다. 본 논문에서는 영화 비디오로부터 추출된 대표 프레임 중 사용자가 원하는 등장 인물을 찾기 위한 기술 개발을 위해 비디오 영상으로부터 얼굴을 검출하고 인식하는 방법을 제안한다. 기존의 방법들은 실험 영상이 제한되어 있다거나 인식의 정확성을 위해 몇 개의 부수적인 얼굴 데이터를 별도로 보관해야만 했지만 본 논문에서는 배경과 두드러진 특징을 갖는 얼굴 색을 이용하여 얼굴 영역 검출 속도를 향상시키고, 웨이블릿 변환과 하우스돌프 거리(Haudorff distance)를 이용하여 별도의 데이터가 필요없이 얼굴을 인식이 가능한 시스템을 설계하였다. 또한, 영화 비디오 및 뉴스, 인터뷰 비디오 등 다양한 형태의 배경 및 조명, 크기 변화를 갖는 데이터에 대한 실험결과를 통해 본 논문에서 제안하는 방법에 대한 성능 평가 실시하였다.

  • PDF

Virtual dress up and tuck in Top on Smart Mirror (스마트 거울기반 의상 가상착의와 상의 내어입기)

  • Cho, Jae-Hyeon;Moon, Nam-Mee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.11a
    • /
    • pp.1189-1191
    • /
    • 2017
  • '스마트'라는 단어가 대중화가 되면서 전자기기 뿐만 아니라 거울에도 스마트가 붙게 되었다. 하지만 스마트 거울에 다양한 기능이 추가되면서 '꾸미는 것을 돕는다'라는 거울 본연의 기능이 부가적인 요소가 되는 경우가 있거나 매장 내에 모델링이 끝난 옷을 보여주지만 집에 있는 자신의 옷을 보는 것이 부족한 경우가 많다. 본 논문에서는 OpenCV를 활용하여 옷을 여러벌 갈아입으면서 코디를 할 때 번거로움을 줄이고자 거울 앞에서 찍으면 프레임과 전경 추출 알고리즘을 사용하여 사용자의 옷을 추출하고 추출된 옷의 정확도를 위해 보정작업을 추가한다. 윤곽선의 노이즈를 줄이기 위해 Morphology 필터링을 사용하고 Clahe 히스토그램 균일화를 통해 옷의 선명도를 높혔다. 추가적으로 가상으로 띄워주는 기능과 옷을 보여줄 때 HSV 모델의 특성을 활용하여 채도나 명도의 변화의 상관없이 색을 추출하여 상의와 하의를 분리하여 상의를 내어입는 기능도 선택할 수 있게 구현 하였다.

The Abstraction of Cultural Videos Using Similarity Measures (유사성 측정을 이용한 교양비디오의 개요 추출)

  • Lee, Ji-Hyun;Mun, Jong-Hwan;Jin, Song-Cheol;Rhee, Yang-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2004.05a
    • /
    • pp.169-172
    • /
    • 2004
  • 키 프레임들의 컬러 정보 차이 값과 표준편차 차이 값을 이용한 유사성측정 방법을 기반으로 클러스터링을 이용하여 의미 있는 단위로 분할되어 색인화 된 비디오에서 중요 장면들을 추출하고 추출된 키프레임들을 대상으로 중간(middle)샷 개요 생성 규칙을 적용하여 요약된 형태의 비디오 개요를 추출하여 사용자들에게 제공함으로써 비디오 선택의 폭을 넓힐 수 있도록 제안하였다.

  • PDF

Improvement of Retrieval Performance Using Adaptive Weighting of Key Frame Features (키 프레임 특징들에 적응적 가중치 부여를 이용한 검색 성능 개선)

  • Kim, Kang-Wook
    • Journal of Korea Multimedia Society
    • /
    • v.17 no.1
    • /
    • pp.26-33
    • /
    • 2014
  • Video retrieval and indexing are performed by comparing feature similarities between key frames in shot after detecting a scene change and extracting key frames from the shot. Typical image features such as color, shape, and texture are used in content-based video and image retrieval. Many approaches for integrating these features have been studied. However, the issue of these approaches is how to appropriately assign weighting of key frame features at query time. Therefore, we propose a new video retrieval method using adaptively weighted image features. We performed computer simulations in test databases which consist of various kinds of key frames. The experimental results show that the proposed method has better performance than previous works in respect to several performance evaluations such as precision vs. recall, retrieval efficiency, and ranking measure.