• 제목/요약/키워드: Contents Based Image Retrieval

검색결과 120건 처리시간 0.033초

모바일 이미지 기반의 문자인식 시스템 (The Character Recognition System of Mobile Camera Based Image)

  • 박영현;이형진;백중환
    • 한국산학기술학회논문지
    • /
    • 제11권5호
    • /
    • pp.1677-1684
    • /
    • 2010
  • 최근 모마일 폰의 발달과 스마트 폰의 보급으로 인해서 많은 콘텐츠들이 개발되어지고 있다. 특히, 모바일 휴대장치에 소형 카메라가 탑재되면서부터 카메라로부터 입력되어지는 영상 기반 콘텐츠 개발은 사람들의 흥미뿐만 아니라 활용 면에서도 중요한 부분을 차지하고 있다. 그중 문자인식 시스템은 시각 장애인 보행 보조 시스템, 로봇 자동 주행 시스템, 비디오 자동 검색 및 색인 시스템, 텍스트 자동 번역 시스템 등과 같은 활용영역에서 매우 광범위하게 쓰일 수 있다. 따라서 본 논문에서는 스마트 폰 카메라로 입력되는 자연 영상에 포함되어 있는 텍스트를 추출 및 인식하고 음성으로 출력해주는 시스템을 제안하였다. 텍스트 영역을 추출하기 위해 Adaboost 알고리즘을 이용하고 추출된 개별 텍스트 후보영역의 문자 인식에는 오류 역전파 신경망을 이용하였다.

시각 특징과 퍼지 적분을 이용한 내용기반 영상 검색 (Content-Based Image Retrieval Using Visual Features and Fuzzy Integral)

  • 송영준;김남;김미혜;김동우
    • 한국콘텐츠학회논문지
    • /
    • 제6권5호
    • /
    • pp.20-28
    • /
    • 2006
  • 본 논문은 공간주파수 특징들과 다중 해상도 특징들을 가진 웨이블렛 영역에서 추출된 각 대역의 시각 특징 추출과 이들의 퍼지 적분 조합에 대하여 제안하였다. 칼라 양자화 이후에 똑같은 칼라의 빈도를 취함으로써 기존의 칼라 히스토그램 인터섹션 방법의 단점인 양자화 에러를 줄일 수 있게 칼라 특징을 표현한다. 또한 유사도는 서로 독립적인 특성을 갖는 호모그램, 칼라, 에너지 특징을 퍼지 측도와 퍼지 적분을 사용하여 조합한다. 1,000개의 칼라 영상에 대하여 실험을 하였고, 제안된 방법이 기존 방법들보다 객관적이고 주관적인 성능에서 우수함을 보였다.

  • PDF

모양 시퀀스 기술자를 이용한 효과적인 동작 표현 및 검색 방법 (Efficient Representation and Matching of Object Movement using Shape Sequence Descriptor)

  • 최민석
    • 정보처리학회논문지B
    • /
    • 제15B권5호
    • /
    • pp.391-396
    • /
    • 2008
  • 동영상에서 객체의 움직임은 동영상의 내용을 분석하는데 중요한 요소로 작용한다. 따라서 움직임 정보를 이용하여 동영상 내용을 분석하고 검색하기 위한 많은 방법들이 제안되었다. 그러나 대부분의 방법들은 객체 자체의 동작 보다는 움직임의 방향이나 경로를 분석하는 쪽으로 치중되었다. 본 논문에서는 객체의 움직임에 의한 모양 변화를 이용하여 객체의 동작을 표현하고 비교하기 위한 모양 시퀀스 기술자(descriptor)를 제안한다. 객체의 움직임 정보는 입력된 이미지 시퀀스에서 객체 영역을 추출하여 연속된 2차원 모양 정보로 표현되고, 각각의 2차원 모양 정보는 모양 기술자를 이용하여 1차원 모양 특징 값으로 변환된다. 순서에 따라 배열된 모양 기술자들을 시간 축으로 주파수 변환한 후 저주파영역의 계수를 취하여 모양 시퀀스 기술자를 얻게 된다. 실험을 통하여 제안된 방법이 객체의 동작 정보를 매우 효과적으로 표현 및 비교 가능하여 내용 기반 동영상 검색, 동작 인식 등의 인지적 관점의 움직임 분석 응용에 적용 가능함을 보였다.

IPTV에서 컷 검색을 위한 색 분포정보를 이용한 FE-CBIRS (FE-CBIRS Using Color Distribution for Cut Retrieval in IPTV)

  • 구건서
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권1호
    • /
    • pp.91-97
    • /
    • 2009
  • 본 논문은 IPTV에서 방영되는 디지털 콘텐츠에서 검색하고자 하는 컷의 위치 정보를 검색하는데, 이때 색 분포에 관한 특징 정보를 이용한 FE-CBIRS을 제안한다. 기존 CBIRS에서는 색상과 모양에 대한 정보를 추출하여 이미지를 구분하는 특징정보로써 활용하며, 이미지를 세그멘테이션 처리하여 얻은 부분영역 특징정보를 전체 이미지의 특징정보와 함께 사용하여 검색하는 방법을 제시하였다. 또한 적용되는 색상 특징 정보의 경우 색상, 채도, 명도의 각각에 대한 평균, 표준편차, 왜도를 사용하며 부분영역을 특징정보로 적용하는 경우 대표색상만을 사용한다. 아울러 모양특징정보의 경우 추출된 부분영역들에 대한 불변 모멘트가 주요하게 사용된다. 이로 인한 처리시간의 문제, 정확성의 문제가 제기되어 왔다. 그러나 본 논문에서 제시하는 방법에서는 추출된 색상 특징정보들을 클래스별로 구분하여 인덱싱 하고 검색 시 비교대상 이미지를 해당 컷에 한정하여 적용하므로서 검색속도를 향상시키도록 하였다.

Comparison of Fine-Tuned Convolutional Neural Networks for Clipart Style Classification

  • Lee, Seungbin;Kim, Hyungon;Seok, Hyekyoung;Nang, Jongho
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제9권4호
    • /
    • pp.1-7
    • /
    • 2017
  • Clipart is artificial visual contents that are created using various tools such as Illustrator to highlight some information. Here, the style of the clipart plays a critical role in determining how it looks. However, previous studies on clipart are focused only on the object recognition [16], segmentation, and retrieval of clipart images using hand-craft image features. Recently, some clipart classification researches based on the style similarity using CNN have been proposed, however, they have used different CNN-models and experimented with different benchmark dataset so that it is very hard to compare their performances. This paper presents an experimental analysis of the clipart classification based on the style similarity with two well-known CNN-models (Inception Resnet V2 [13] and VGG-16 [14] and transfers learning with the same benchmark dataset (Microsoft Style Dataset 3.6K). From this experiment, we find out that the accuracy of Inception Resnet V2 is better than VGG for clipart style classification because of its deep nature and convolution map with various sizes in parallel. We also find out that the end-to-end training can improve the accuracy more than 20% in both CNN models.

영화 비디오 자막 추출 및 추출된 자막 이미지 향상 방법 (Methods for Video Caption Extraction and Extracted Caption Image Enhancement)

  • 김소명;곽상신;최영우;정규식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권4호
    • /
    • pp.235-247
    • /
    • 2002
  • 디지털 비디오 영상을 효과적으로 색인하고 검색하기 위해서 비디오의 내용을 함축적으로 표현하고 있는 비디오 자막을 추출하여 인식하는 연구가 필요하다. 본 논문에서는 압축되지 않은 비디오 영화 영상에 인위적으로 삽입한 한글 및 영어 자막을 대상으로 자막 영역을 추출하고, 추출된 자막 이미지를 향상시키는 방법을 제안한다. 제안한 방법의 특징은 동일한 내용의 자막을 갖는 프레임들의 위치를 자동으로 찾아서 동일 자막 프레임들을 다중 결합하여 배경에 포함되어 있는 잡영의 일부 또는 전부를 우선 제거한다. 또한, 이 결과 이미지에 해상도 중대, 히스토그램 평활화, 획 기반 이진화, 스무딩의 이미지 향상 방법을 단계적으로 적용하여 인식 가능한 수준의 이미지로 향상시킨다. 제안한 방법을 비디오 영상에 적용하여 동일한 내용의 자막 그룹 단위로 자막 이미지를 추출하는 것이 가능해졌으며, 잡영이 제거되고 복잡한 자소의 획이 보존된 자막 이미지를 추출할 수 있었다. 동일한 내용의 자막 프레임의 시작 및 글위치를 파악하는 것은 비디오 영상의 색인과 검색에 유용하게 활용될 수 있다. 한글 및 영어 비디오 영화 자막에 제안한 방법을 적용하여 향상된 문자 인식 결과를 얻었다.

움직임과 영상 패턴 서술자를 이용한 중복 동영상 검출 (Detecting near-duplication Video Using Motion and Image Pattern Descriptor)

  • 진주경;나상일;정동석
    • 대한전자공학회논문지SP
    • /
    • 제48권4호
    • /
    • pp.107-115
    • /
    • 2011
  • 본 논문은 대용량 동영상을 관리하기 위한 빠르고 효율적인 내용기반 중복 동영상 검출 알고리즘을 제안한다. 효율적인 중복 동영상 검출을 위해 대용량의 동영상을 처리하기 쉬운 작은 단위로 나누는 동영상 장면 전환 기반 분할 기술을 적용하였다. 동영상 서비스 및 저작권 보호 관련 사업모델의 경우, 필요한 기술은 아주 작은 구간의 동영상이나 한 장의 영상 을 검색하기보다는 상당한 길이 이상 일치하는 동영상을 파악하는 기술이 필요하다. 이러한 중복 동영상 검출을 위해 본 논문에서 동영상을 장면 전환을 기준으로 분할하여, 나누어진 장면 내에서 움직임 분포 서술자와 대표 프레임을 선택하여 프레임 서술자를 추출한다. 움직임 분포 서술자는 동영상 디코딩 과정에서 얻어지는 매크로 블록의 움직임 벡터를 이용한 장면 내 움직임 분포 히스토그램을 구성하였다. 움직임 분포 서술자는 정합시 고속 정합이 가능하도록 필터링 역할을 한다. 반면 움직임 정보만는 낮은 변별력을 가진다. 이를 높이기 위해 움직임 분포 서술자를 이용하여 정합된 장면간에 선택된 대표 프레임의 패턴 서술자를 이용하여 동영상의 중복 여부를 최종 판단한다. 제안된 방법은 실제 동영상 서비스 환경에서 우수한 인식률과 낮은 오인식률을 가질 뿐만아니라 실제 적용이 가능할 정도의 빠른 정합 속도를 얻을 수 있었다.

오디오의 Peak 특징을 이용한 동일 영화 콘텐츠 검색 (Similar Movie Contents Retrieval Using Peak Features from Audio)

  • 정명범;성보경;고일주
    • 한국멀티미디어학회논문지
    • /
    • 제12권11호
    • /
    • pp.1572-1580
    • /
    • 2009
  • 검색을 위해 동영상 데이터 전체를 이용하면 많은 시간과 저장 공간이 필요하다. 이를 보완하고자 기존의 동일 영화 검색은 영상 정보의 일부를 이용하여 동일한 영상 검색에 사용해 왔다. 그러나 이 방법은 같은 영상임에도 비디오 부호화기이나 해상도가 다른 경우 전혀 다른 영상으로 인식한다. 따라서 본 논문에서는 동영상의 오디오 정보를 이용하여 동일한 동영상을 찾는 알고리즘을 제안한다. 제안 방법은 부호화율, 부호화기, 샘플링 수의 변화에도 유사한 파형을 형성하는 Peak 정보를 바탕으로 데이터베이스에 색인하고, 검색한다. 논문에서는 제안 방법의 성능을 확인하기 위해 1,000개의 동영상 데이터를 검색 실험하였으며, 92.1%의 성공률을 나타내었다.

  • PDF

장면 전환점 검출을 위한 프레임의 평균오차 비교에 관한 연구 (A Study on Frame of MSE Comparison for Scene Chang Detection Retrieval)

  • 김단환;김형균;오무송
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2002년도 춘계종합학술대회
    • /
    • pp.638-642
    • /
    • 2002
  • 대용량의 동영상 데이터 이용에 있어 사용자가 전체 동영상 데이터를 한눈에 파악할 수 있고, 필요한 경우 원하는 지점부터 동영상을 재생할 수 있도록 하기 위하여 동영상 데이터의 정보를 요약해 놓은 프레임 리스트를 제공하며, 효과적인 동영상 검색을 위해서는 동영상 데이터의 색인과정이 필요하다. 본 논문은 내용기반 색인에 기초가 될 동영상의 장면 전환점 검출에 관한 효과적인 방법을.제안하고자 한다. 제안된 방법은 동영상 데이터를 대각선 방향으로 일정 픽셀의 칼라 값을 추출하여 동영상의 전체 구조를 파악할 수 있도록 정지영상으로 샘플링 하였으며, 샘플링 된 데이터는 장면전환점을 한눈으로 파악할 수 있었다. 각각의 프레임에서 추출한 픽셀의 칼라 값은 행렬A에 i$\times$j 행렬로 i는 프레임 수, j는 프레임의 영상 높이로 저장하고 MSE(Mean Square Error) 도입하여 각 프레임의 평균 오차를 계산한다. 평균오차와 일정 임계값을 초과하면 그 프레임을 장면 전환점으로 검출하고자 한다.

  • PDF

SIFT 알고리즘을 이용한 혼합형 모바일 교육 시스템 (Mixed Mobile Education System using SIFT Algorithm)

  • 홍광진;정기철;한은정;양종열
    • 한국산업정보학회논문지
    • /
    • 제13권2호
    • /
    • pp.69-79
    • /
    • 2008
  • 무선 인터넷과 모바일 기기의 보급으로 언제 어디서나 원하는 정보를 얻을 수 있는 유비쿼터스 환경을 위한 인프라가 구축되면서 교육을 포함한 다양한 분야에서 오프라인과 온라인 컨텐츠를 동시에 이용함으로써 정보 전달의 효율성을 높일 수 있는 방법에 대한 연구가 활발하게 이루어지고 있다. 본 논문은 사용자에게 모바일 기기를 이용하여 오프라인과 온라인 컨텐츠를 함께 제공하여 교육의 효과를 높일 수 있는 혼합형 모바일 교육 시스템(Mixed Mobile Education System: MME)을 제안한다. 제안된 시스템은 기존의 연구와 달리 사용자에게 자연스러운 환경을 제공하기 위해서 부가적인 태그를 사용하지 않는다. 태그를 사용하는 시스템의 경우 새로운 데이터의 등록이 어렵고 유사한 내용의 오프라인 컨텐츠 사용이 불가능하기 때문이다. 본 논문에서 우리는 저화질의 카메라를 통해 입력받은 영상에서 잡음 색상 왜곡, 크기 및 기울기 변화에 영향을 적게 받는 특징점을 추출하고 오프라인 컨텐츠를 인식하기 위해 Scale Invariant Feature Transform(SIFT) 알고리즘을 사용하였다. 또한 클라이언트-서버 구조를 사용함으로써 모바일 장치의 제한적인 저장 능력 문제를 해결하고 데이터의 등록 및 수정이 용이하도록 하였다. 실험을 통해 기존의 흔합형 교육 시스템과의 성능을 비교하고 제안된 시스템의 장단점을 확인하였으며, 시스템을 실생활에 적용하였을 경우 다양한 상황에서도 사용자에게 만족할만한 성능을 제공함을 확인하였다.

  • PDF