• 제목/요약/키워드: 동영상 정보

검색결과 2,241건 처리시간 0.027초

외부 콘텐츠 소스를 활용한 OSMU 동영상 UCC 학습 콘텐츠 에디터 설계 (OSMU Video UCC Learning Content Authoring Tool Design Using Content Sources Created by Others)

  • 오정민;김경아;문남미
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2009년도 추계학술대회
    • /
    • pp.349-352
    • /
    • 2009
  • 최근 정보의 형태는 텍스트나 이미지 기반에서 벗어나 복합 멀티미디어, 즉 동영상 위주로 빠르게 이동하고 있다. 특히 사용자에 의해 제작되고 유통되는 동영상 UCC의 급격한 부상은 사용자의 정보 생산력과 정보 공유, 소비 형태를 능동적으로 변화시키고 있다. PC 뿐 아니라 IPTV에서도 주요 서비스 모델로 관심을 받는 동영상 UCC는 향후 지식 결부형 학습 콘텐츠로 옮아갈 것이라 예상되고 있으며 여기에는 수익 모델의 개발과 저작권 보호 이슈가 해결해야 할 선결 과제로 인식된다. 이에 본 논문은 방송 콘텐츠 제공 표준 기술인 TV-Anytime, 학습객체메타데이터인 LOM(Learning Object Metadata)을 기반으로 OSMU 동영상 UCC 학습 콘텐츠 서비스 모델을 위한 에디터를 설계하고 외부 콘텐츠 소스를 활용할 수 있는 콘텐츠 저작 시나리오에 기반한 메타데이터를 설계하였다. 이를 통해 사용자의 다양한 지식을 활용할 수 있는 UCC 학습 콘텐츠 서비스 모델 발굴과 콘텐츠의 확대 재생산에 있어서 적극적인 저작권 보호가 이루어질 것을 기대한다.

  • PDF

장면전환 지점 검출을 이용한 동영상 검색 시스템 설계에 관한 연구 (A Study On The Design Of Video Retrieving System Using Cut Detection)

  • 임영숙;김형균;정기봉;고석만;오무송
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 1998년도 가을 학술발표논문집 Vol.25 No.2 (2)
    • /
    • pp.562-564
    • /
    • 1998
  • 멀티미디어 기술이 발전됨에 따라 방대한 양의 동영상 데이터로부터 원하는 장면을 빠르고 손쉽게 검색하기 위한 연구는 동영상을 포함한 멀티미디어 서비스가 제공되는 현 시점에서 대단히 시급한 문제로 인식되고 있다. 본 연구에서는 동영상데이터를 대상으로 장면전환 지점을 검출하기 위하여 검색을 원하는 영상을 4개의 구역으로 구분하여 각각의 구역에 경계위치를 설정하며, 설정된 경계위치에 해당하는 칼라값을 분석하여 비디오 메모리에 저장한 후 이미지 데이터 베이스에 저장된 동영상 데이터의 각 Frame도 공간별 칼라값을 추출하여 이를 비디오 메모리값과 비교해서 연속된 두 Frame간의 칼라값 차이를 구하여 그 차이가 임계값 이상이 되면 장면전환 지점으로 검출하는 방법으로 사용자가 원하는 정보를 빠르게 검색하는 시스템을 설계하였다.

  • PDF

멀티미디어 통신 인터페이스를 위한 동영상 내의 물체 추적 방법 (Moving object tracking method for mulimedia telecommunication interface)

  • 조영기;이성룡
    • 한국경영과학회:학술대회논문집
    • /
    • 대한산업공학회/한국경영과학회 1996년도 춘계공동학술대회논문집; 공군사관학교, 청주; 26-27 Apr. 1996
    • /
    • pp.593-596
    • /
    • 1996
  • 멀티미디어 통신기술을 이용한 통신 환경의 구축은 초고속, 광대역으로 발전하는 통신기술의 발전과 날로 고도화 되는 컴퓨터 기술의 발달에 힘입어 그 적용범위가 확산되고 있다. 특히 이러한 환경에서 동영상의 통신은 기존의 문자, 그래픽 혹은 정지화상을 이용한 통신에서 보다는 더욱 많은 정보를 사용자에게 이해하기 쉽게 전달한다는 점에서 그 응용분야가 증대되고 있다. 그러나 기존의 동영상 통신에서는 동영상이 화상회의 등의 예에서 보듯이 사용자에게 단순히 영상정보를 제공하는 수단으로서만 이용이 되었다. 진정한 의미의 양방향 통신을 위해서는 이러한 동영상에 대한 사용자의 제어가 가능한 인터페이스가 필요한데, 본 연구에서는 이러한 인터페이스의 구축을 위한 기반기술로써 동영상내의 물체 추적방법에 대해 소개한다. 개발된 방법은 영상의 밝기나 형태변화에 민감하지 않고 추적물체의 모델링을 자동적으로 할 수 있다는 점에서 기존의 영상처리 방법과는 구별된다.

  • PDF

Character-Net을 이용한 주요배역 추출 (Major Character Extraction using Character-Net)

  • 박승보;김유원;조근식
    • 인터넷정보학회논문지
    • /
    • 제11권1호
    • /
    • pp.85-102
    • /
    • 2010
  • 본 논문에서는 동영상의 등장인물 간의 상황을 기초로 배역간의 관계를 정의한 Character-Net을 구축하는 방법과 이를 이용하여 동영상으로부터 주요배역을 추출하는 방법을 제안한다. 인터넷의 발전과 함께 디지털화된 동영상의 수가 기하급수적으로 증가하여 왔고 원하는 동영상을 검색하거나 축약하기 위해 동영상으로부터 의미정보를 추출하려는 다양한 시도가 있어왔다. 상업용 영화나 TV 드라마와 같이 이야기 구조를 가진 대부분의 동영상은 그 속에 존재하는 등장인물들에 의해 이야기 전개가 이루어지게 되므로, 동영상 분석을 위해 인물 간의 관계와 상황을 체계적으로 정리하고 주요배역을 추출하여 동영상 검색이나 축약을 위한 정보로 활용할 필요가 있다. Character-Net은 영상의 그룹 단위에 등장하는 인물들을 찾아 화자와 청자를 분류하여 등장인물 기반의 그래프로 표현하고 이 그래프를 누적하여 전체 동영상의 등장인물들 간의 관계를 묘사한 네트워크다. 그리고 이 네트워크에서 연결정도 중심성 분석을 통해 주요배역을 추출할 수 있다. 이를 위해 본 논문에서는 Character-Net을 구축하고 주요배역을 추출하는 실험을 진행 하였다.

상황 정보를 활용한 동영상 문맥 광고 (Contextual In-Video Advertising Using Situation Information)

  • 이봉준;우현욱;이정태;임해창
    • 한국산학기술학회논문지
    • /
    • 제11권8호
    • /
    • pp.3036-3044
    • /
    • 2010
  • 동영상 데이터 서비스가 나날이 증가함에 따라 특정 동영상 장면에 적합한 광고를 보여주거나 추가적인 정보를 제공하려는 요구가 커지고 있다. 장면에 적합한 광고를 보여주기 위하여 동영상의 영상이나 음성 정보를 직접 이용하는 방법은 현재의 기술력으로 한계가 있고, 제목, 카테고리 정보, 요약 등의 메타데이터도 계속해서 변화하는 장면의 내용을 반영하지 못한다. 본 연구는 동영상의 대본 자막에서 추출한 장면의 상황 정보를 이용하여 주어진 동영상 장면에 적합한 광고를 자동으로 부착해 주는 새로운 동영상 문맥 광고 시스템을 제안한다. 대본 자막에서 추출한 상황 정보를 광고 검색에 이용했을 때 높은 성능 향상을 확인할 수 있었고, 이를 이용하여 사용자에게 더 적합한 광고를 보여줄 수 있다.

화자인식을 이용한 대화 상황정보 어노테이션 (Conversation Context Annotation using Speaker Detection)

  • 박승보;김유원;조근식
    • 한국멀티미디어학회논문지
    • /
    • 제12권9호
    • /
    • pp.1252-1261
    • /
    • 2009
  • 효율적인 영상의 검색과 동영상의 축약을 위해 선행되어야 하는 것이 동영상 정보에서 의미를 추출하여 영상 정보를 어노테이션 하는 작업이다. 어노테이션을 위한 동영상의 의미 정보는 다양한 방식에 의해 얻어질 수 있다. 동영상의 의미정보는 영상의 개체들의 단순한 정체 정보를 추출하는 방식과 개체들이 만들어 내는 상황정보를 추출하는 방식으로 구분될 수 있다. 하지만 개체들의 단순 정보만으로 어노테이션을 진행하기 보다는 개체들 간의 상호작용이나 관계에 대한 표현을 개체 정보와 함께 고려하여 대화 상황에 대한 온전한 의미를 어노테이션 하는 것이 더욱 좋다. 본 논문은 영상으로부터 화자정보를 추출하고 대화상황을 구성하여 어노테이션 하는 것에 대한 연구이다. 인식된 얼굴 정보로부터 현재 영상에 누가 있는 지 알아낸 후 입의 움직임을 분석하여 화자가 누구인지 알아내고, 화자와 청자 및 자막의 유무를 통해 대화 상황을 추출하여 XML로 변환하는 방법을 본 연구에서 제안한다.

  • PDF

BCS 최대 매칭을 이용한 유사 비디오 클립 랭킹 (Video Clip Ranking using Bounded Coordinate System Matching)

  • 정의석;심규석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 추계학술발표대회
    • /
    • pp.716-719
    • /
    • 2010
  • 비디오 클립은 최근 온라인 상에서 흔히 볼 수 있는 짧은 동영상으로 이러한 동영상 클립의 대규모 유입으로 유사한 비디오 클립을 검색하는 동영상 검색 엔진의 필요성이 크게 증가하였다. BCS은 최초의 단일 비디오 클립 표현 모델로 비디오 클립을 주성분 분석을 통해 얻어진 좌표축들을 그 위로 사상된 데이터들로 제한한 것들로 이루어진 좌표계로 요약한다. 그러나 BCS 은 영상의 순서를 무시한 벡터로 표현되므로 세밀한 유사도 구별이 불가능하다. 본 논문에서는 유사한 동영상에 대한 사람의 판단은 서로 유사한 일부분이 많이 존재하는 것을 기반으로 하는 점에 착안하여 하나의 동영상 클립을 샷 단위로 나누어 여러 개의 BCS 으로 나타낸 다음, 이들간의 유사도 측정을 통해 검색의 성능을 높이고자 하였다. 실험 결과 만족할 만한 정확도로 유사한 동영상 클립을 검색해 내는 것을 확인할 수 있다.

타이포그래피 기술을 접목시킨 자막 가독성 개선 연구 - 모바일 환경에서 Noto Sans Korean 폰트를 중심으로 - (A Research on Improving Readability of subtitles combined with typography in Hangeul - Focusing on Noto Sans Korean fonts in mobile environment)

  • 박재홍
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2021년도 제63차 동계학술대회논문집 29권1호
    • /
    • pp.47-48
    • /
    • 2021
  • 본 연구는 타이포그래피 기술을 접목한 동영상과 기본 자동 자막을 사용한 동영상의 한글 자막 가독성을 비교·분석하여 모바일 동영상 시청 시 한글 자막의 가독성 개선을 위한 기초자료를 제공하는 데 목적이 있다. 연구의 목적을 위해 기본으로 설정되는 자동 자막을 사용한 동영상과 타이포그래피 기술을 적용·개선한 한글 폰트를 자막에 적용한 동영상을 비교하는 설문을 실시하였다. 시각디자인 전공자(73명)과 비전공자(52명)간의 자막 가독성 설문조사의 결과를 비교·분석하였다. 또한, 모바일을 통해 외국어 동영상 시청 시 자막 설정 기능에서 중요하게 여겨지는 요인과 현재 자막 설정 기능 중 불편하게 여기는 요인을 분석하였다. 수집된 설문의 자료는 Windows SPSS 26.0을 사용하여 분석하였다. 자막 설정 기능에서 중요하게 여겨지는 요인과 현재 자막 설정 기능의 불편 사항 등에 대한 인식의 차이를 살펴보기 위해 빈도분석, 𝑥2 검정, t 검정, 일원변량분석(one-way ANOVA) 등을 실시하였다.

  • PDF

MDR 기반의 교통사고 동영상 DB 구축 방안 (Construction Method for MDR-based Database Structure of Traffic Accidents)

  • 홍성호;김진우;김영갑;기용걸
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2005년도 가을 학술발표논문집 Vol.32 No.2 (2)
    • /
    • pp.76-78
    • /
    • 2005
  • 본 교통사고 동영상 DB 설계의 연구 목적은 교통사고 자동기록장치에서 수집되는 교통사고 동영상 자료를 효율적으로 활용하기 위한 교통사고 동영상 DB 구축 방안에 관한 연구이며, 이를 위해 ISO/IEC 11179 표준인 MDR을 이용한 교통사고 동영상 DB 논리 모델을 제안하는 데 있다. 본 논문에서 제안하는 DB구조를 통해 실시간 대용량 교통사고 동영상 데이터에 대한 데이터의 생성, 관리 및 검색 성능을 향상시킬 수 있을 뿐만 아니라, MDR 표준 개념 적용으로 상호 이질적인 DB 간의 상호운용성(interoperability)이 증대된다.

  • PDF

향상된 불변모멘트를 이용한 동영상 이미지의 특징정보 분석에 관한 연구 (A Study on Feature Information Parsing of Video Image Using Improved Moment Invariant)

  • 이창수;전문석
    • 한국멀티미디어학회논문지
    • /
    • 제8권4호
    • /
    • pp.450-460
    • /
    • 2005
  • 컴퓨터 및 통신기술의 급속한 발전으로 인해 동영상 정보는 인터넷 및 사회전반의 다양한 분야에서 활용되고, 그 수가 기하급수적으로 증가되고 있다. 동영상 정보 분석 시스템은 기본적으로 텍스트를 기반으로하기 때문에, 동영상 정보가 가지는 애매성을 표현하기 곤란하며, 주석 작성에 따르는 과다한 작업부담 및 객관성 결여 등의 문제점을 가지고 있다. 본 논문에서는 대용량의 동영상 정보를 효율적으로 분석 하기 위해 있는 동영상 이미지의 분할영역에서 색상정보와 모양정보를 이용한 방법을 제안하고자 한다. 분할영역은 영역성장과 결합 방법을 사용한다. 색상정보를 추출하기 위해서는 기존의 RGB 방식에서 HSI방식으로 색상변환 하여 대표색상과 매칭되는 특징 정보를 사용한다. 그리고 모양정보는 물체의 윤곽선에 해당하는 화소들만을 대상으로 연산을 수행하는 향상된 불변 모멘트(Improved Moment Invariants : IMI)를 이용한다.

  • PDF