• 제목/요약/키워드: contents scene

검색결과 352건 처리시간 0.024초

Multimodal Attention-Based Fusion Model for Context-Aware Emotion Recognition

  • Vo, Minh-Cong;Lee, Guee-Sang
    • International Journal of Contents
    • /
    • 제18권3호
    • /
    • pp.11-20
    • /
    • 2022
  • Human Emotion Recognition is an exciting topic that has been attracting many researchers for a lengthy time. In recent years, there has been an increasing interest in exploiting contextual information on emotion recognition. Some previous explorations in psychology show that emotional perception is impacted by facial expressions, as well as contextual information from the scene, such as human activities, interactions, and body poses. Those explorations initialize a trend in computer vision in exploring the critical role of contexts, by considering them as modalities to infer predicted emotion along with facial expressions. However, the contextual information has not been fully exploited. The scene emotion created by the surrounding environment, can shape how people perceive emotion. Besides, additive fusion in multimodal training fashion is not practical, because the contributions of each modality are not equal to the final prediction. The purpose of this paper was to contribute to this growing area of research, by exploring the effectiveness of the emotional scene gist in the input image, to infer the emotional state of the primary target. The emotional scene gist includes emotion, emotional feelings, and actions or events that directly trigger emotional reactions in the input image. We also present an attention-based fusion network, to combine multimodal features based on their impacts on the target emotional state. We demonstrate the effectiveness of the method, through a significant improvement on the EMOTIC dataset.

사용자 상호작용 지원 시간 제약 모델 기반 MPEG-4 컨텐츠 저작 시스템 (An MPEG-4 Contents Authoring System based on Temporal Constraints Model supporting User Interaction)

  • 김희선;김상욱
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제9권2호
    • /
    • pp.182-190
    • /
    • 2003
  • MPEG-4와 같은 대화형 미디어의 시간 관계를 위하여 재생 중에 사용자 이벤트에 의하여 객체간 재생 시간과 시간 관계를 동적으로 변화시킬 수 있는 시간 모델이 필요하다. 또한 사용자 이벤트에 의하여 시간 속성이 변경되더라도, 씬의 타당성이 유지되어야 한다. 본 논문에서는 사용자 상호작용을 지원하는 시간 모델을 제안하고, 이를 적용한 MPEG-4 컨텐츠 저작 시스템을 개발하였다. MPEG-4에서 저작 가능한 시간 관계와 시간속성을 변경시키는 사용자 상호작용을 정의하였다. 본 저작 시스템은 시간 관계와 이벤트에 대한 제약 조건을 정의하고, 제약 조건을 검사하여 오류 없는 씬(scene)을 생성할 수 있다. 또한 MPEG-4 씬에 시간관계와 이벤트를 시각적으로 저작하기 위한 저작 환경을 제공하고, 저작된 씬을 인코딩 하여 MPEG-4 스트림을 생성한다.

방송 및 개인 콘텐츠 편집을 위한 온라인 콘텐츠 편집 시스템 (Online Content Editing System to Edit Broadcasting and Personal Contents)

  • 양창모;정광수
    • 방송공학회논문지
    • /
    • 제20권4호
    • /
    • pp.619-631
    • /
    • 2015
  • 본 논문에서는 방송 콘텐츠와 개인 콘텐츠를 편집하기 위한 새로운 온라인 콘텐츠 편집 시스템을 제안한다. 제안하는 편집 시스템은 콘텐츠를 저장하고 관리하기 위한 콘텐츠 관리 서버와 사용자 인터페이스를 통해 콘텐츠 편집을 수행하는 콘텐츠 편집기로 구성된다. 편집 대상 콘텐츠를 다운로드 받아 편집을 수행하는 기존의 콘텐츠 편집 방법과는 달리, 제안하는 편집 시스템에서는 콘텐츠 관리 서버에 저장되어 있는 콘텐츠를 콘텐츠 편집기에서 스트리밍 기술을 이용하여 재생하며 편집을 수행한다. 그러나 콘텐츠 편집기가 스트리밍 기술을 이용하여 콘텐츠의 전체 구간을 재생하며 편집을 수행하는 것은 비효율적이다. 이러한 문제점을 해결하기 위해, 제안하는 편집 시스템에서는 편집 대상 콘텐츠의 씬 검출을 수행한 후, 검출된 씬 정보를 콘텐츠 재생 및 편집에 사용한다. 콘텐츠 편집기를 통해 콘텐츠 편집이 완료되면, 편집 정보는 메타데이터 형태로 콘텐츠 관리서버에 업로드된다. 제안하는 편집 시스템에서는 콘텐츠의 씬 정보와 편집 정보가 메타데이터 형태로만 존재하며, 씬 단위 혹은 편집 분절 단위의 물리적인 콘텐츠 분할은 수행되지 않는다. 구현 결과는 제안한 편집 시스템이 편집 대상 콘텐츠를 다운로드한 후 편집하는 기존의 콘텐츠 편집 방법을 사용하지 않고서도 기존의 방법과 유사한 성능을 제공함을 보여준다.

VR 애니메이션 의 시각적 미장센 연구 (A Study on Visual Mise-en-Scene of VR Animation )

  • 이랑구;정진헌
    • 디지털융복합연구
    • /
    • 제15권9호
    • /
    • pp.407-413
    • /
    • 2017
  • 미장센은 시각적 영상 미학으로 화면과 공간을 구성하는 연출 기법이다. 연극과 영화에서뿐만 아니라 애니메이션에서도 역시 미장센은 중요한 요소이며, 관람자의 몰입을 유도하고 지속할 수 있는 강력한 장치이다. 본 논문은 영화의 미장센 이론을 기반으로 애니메이션의 미장센을 알아보고, 가상공간에서는 어떻게 연출되고 표현되었으며 어떠한 요소와 특징이 관람자의 몰입을 유도하고 지속시키고 있는지 VR 애니메이션 을 구체적인 사례로 삼아 시각적 미장센 요소를 중심으로 분석하였다. 그 결과 시각적 미장센 요소로는 캐릭터와 소품, 배경, 캐릭터의 독창성과 친근함, 자연스러운 동작 및 연기, 소품의 상징성과 활용성 그리고 배경의 다양성과 일관성이 몰입을 유도하고 지속하는 것으로 나타났다. 이를 바탕으로 향후 VR 애니메이션은 시각적 미장센 요소의 특성을 활용한 연출을 통해 관람자의 시선 유도와 몰입을 지속할 수 있는 차별화된 장치와 기법이 필요하다는 연구 결과를 얻은 논문으로 관련 분야에 도움이 될 수 있는 논문으로 사료된다.

2차원 동영상의 3차원 변환을 위한 깊이 단서의 신뢰성 기반 적응적 깊이 융합 (Adaptive Depth Fusion based on Reliability of Depth Cues for 2D-to-3D Video Conversion)

  • 한찬희;최해철;이시웅
    • 한국콘텐츠학회논문지
    • /
    • 제12권12호
    • /
    • pp.1-13
    • /
    • 2012
  • 3차원 동영상은 다양한 응용분야들에서 차세대 콘텐츠로 큰 주목을 받고 있다. 2D-to-3D 변환은 3차원 동영상의 시대로 넘어가는 과도기 동안에 3차원 동영상 콘텐츠의 부족현상을 해결하기위한 강력한 기술로 여겨지고 있다. 일반적으로 2D-to-3D 변환을 위해서는 2차원 동영상 각 장면의 깊이영상을 추정/생성한 후 깊이 영상 기반 랜더링 (DIBR : Depth Image Based Rendering) 기술을 이용하여 스테레오 동영상을 합성한다. 본 논문은 2차원 동영상 내 존재하는 다양한 변환 단서들을 통합하는 새로운 깊이 융합 기법을 제안한다. 우선, 알맞은 깊이 융합을 위해 몇몇 단서가 현재 장면을 효과적으로 표현할 수 있는 지 아닌지 검사된다. 그 후, 신뢰성 검사의 결과를 기반으로 현재 장면은 4개의 유형 중 하나로 분류된다. 마지막으로 최종 깊이 영상을 생성하기 위해 신뢰할 수 있는 깊이 단서들을 조합하는 장면 적응적 깊이 융합이 수행된다. 실험 결과를 통해 각각의 단서가 장면 유형에 따라 타당하게 활용되었고 최종 깊이 영상이 현재 장면을 효과적으로 표현할 수 있는 단서들에 의해 생성되었음을 관찰할 수 있다.

유니티 시네머신을 활용한 장면 연출 모색 (Scene Production using Unity Cinemachine)

  • 박성숙
    • Journal of Information Technology Applications and Management
    • /
    • 제28권6호
    • /
    • pp.133-143
    • /
    • 2021
  • Unity's Cinemachine, one of the game production technologies, can produce 3D images. However, since Cinemachine is a game production tool, video creators may find it difficult because the work process of Cinemachine is unfamiliar and complicated. However, it is necessary to learn new technologies for the future of video contents that will be advanced in the future. In order to understand Chinemachine as a video producer, I would like to embody the scene of the movie. We are going to produce a storyboard scene for storytelling in Cinemachine. We defined the workflow of Unity Cinemachine while directing the scene by creating a story, and also checked the advantages and cautions. I hope it will be an opportunity to enjoy using Unity Cinemachine, which is constantly evolving.

Visual Rhythm의 방향성을 이용한 장면변환 검출 (Scene change detection using visual rhythm by direction)

  • 윤상호;유지상
    • 한국통신학회논문지
    • /
    • 제29권8C호
    • /
    • pp.1193-1202
    • /
    • 2004
  • 최근 디지털 컨텐츠 관리의 중요성이 점점 증대되는 가운데, 동영상 컨텐츠의 중복장면을 최대한 줄이고, 대량의 비디오 데이터를 효과적으로 하기 위하여 장면변환 검출과 관련된 연구가 계속 진행되고 있다. 기존의 히스토그램과 화소 차를 이용한 장면변환 검출 기법은 조명변화와 움직임에 민감한 결과를 나타내었다. 따라서, 최근에는 계산량이 적고, 장면특성을 비교적 잘 나타내는 visual rhythm을 사용한 검출 방법이 많이 연구되어지고 있다. 본 논문에서는 visual rhythm의 방향성을 이용하여 장면을 검출하는 기법을 제안하였다. 제안하는 기법에서는 계산량을 효과적으로 줄일 수 있으며, 방향성 측정으로 인해 움직임이 있는 장면에서도 지속적인 성능을 가질 수 있다. 실험 결과에서는 기존에 사용되던 히스토그램을 이용한 장면변환 검출과 비교하여 약 30%의 성능효과를 보였고, 움직임이 많은 광고와, 뮤직비디오에서 비슷한 성능이 유지됨을 확인 할 수 있었다.

고속 컨텐츠 인식 동영상 리타겟팅 기법 (Fast Content-Aware Video Retargeting Algorithm)

  • 박대현;김윤
    • 한국컴퓨터정보학회논문지
    • /
    • 제18권11호
    • /
    • pp.77-86
    • /
    • 2013
  • 본 논문에서는 동영상의 주요 컨텐츠를 보존하면서 영상의 크기를 변환하는 고속 동영상 리타겟팅 기법을 제안한다. 기존의 Seam Carving에서는 seam을 하나씩 구할 때마다 누적 에너지의 갱신이 발생하며, 여기서 누적 에너지는 동적계획법을 이용하여 계산하기 때문에 전체 연산시간의 지연은 불가피하다. 본 논문에서는 전체 동영상을 특징이 서로 비슷한 scene으로 나누고, 각 scene의 첫 프레임에서는 seam이 될 수 있는 모든 후보들 중 복수개의 seam을 추출하여 누적 에너지의 갱신과정을 줄여 고속화한다. 또한 scene의 두 번째 프레임부터 인접한 프레임 상호간에 상관성을 이용하여, 연속하는 프레임은 누적 에너지를 계산하지 않고 이전 프레임의 seam 정보를 참조한 계산만으로 모든 seam을 추출한다. 따라서 제안하는 시스템은 누적 에너지에 계산되는 연산량을 대폭 줄였으며 전체 프레임의 분석도 필요하지 않아 고속화가 가능하고, 컨텐츠의 떨림 현상은 발생하지 않는다. 실험 결과는 제안하는 방법이 처리 속도와 메모리 사용량 면에서 실시간 처리에 적합하고, 영상이 가지고 있는 컨텐츠를 보존하면서 영상의 크기를 조절할 수 있음을 보여준다.

임의 색온도에 대한 조명 색 변환기법 (Transformation of Illuminant Chromaticity for Arbitrary Color Temperature)

  • 김정엽;김상현;현기호
    • 한국멀티미디어학회논문지
    • /
    • 제7권10호
    • /
    • pp.1370-1377
    • /
    • 2004
  • 동일한 장면을 다양한 조건에서 촬영한 영상이나 비디오는 서로 다른 색감을 가지며 촬영 조건에서 중요한 역할을 하는 것은 현장의 조명이다. 조명의 색온도에 따라 전체적인 색감이 결정되므로 조명색의 변환방법이 필요하다. 본 논문에서는 임의로 지정된 색온도로의 조명색 변환 방법을 제안한다. 기존의 조명색 변환 방법은 미리 정해진 일정한 개수의 대표성이 있는 색온도에 대한 변환 관계를 미리 계산하여 두었다가 활용하는 정도이다. 제안한 방법은 임의로 지정한 기준과 목표로 하는 색온도에 대한 변환 관계를 직접적으로 구하여 적용할 수 있는 장점이 있다.

  • PDF

3D 애니메이션 콘텐츠의 SCORM 기반 표준화 전략 (Standardization Strategy on 3D Animation Contents)

  • 장재경;김선혜;김호성
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2006년도 추계 종합학술대회 논문집
    • /
    • pp.218-222
    • /
    • 2006
  • 디지털 기술이 적용되고 있는 3D 애니메이션 제작에 있어서, 애니메이션 콘텐츠 표준화를 통하여 애니메이션 제작 과정을 체계적인 관리하여 생산성을 높이고 결과물의 재사용성을 높일 필요가 있다. 이를 위해 애니메이션 제작, 유통, 재편집을 고려하여 널리 채택되고 있는 e-Learning의 SCORM 표준안을 기반으로, 애니메이션 콘텐츠의 재사용성을 높일 수 있는 애니메이션 콘텐츠 표준을 설계하고, 이를 기반으로 애니메이션 콘텐츠의 생성에서 완성까지의 제작 공정상의 모든 정보를 한 눈에 파악하고 관리할 수 있는 애니메이션 콘텐츠 제작관리시스템을 개발하고 하고자 한다. 애니메이션 콘텐츠를 영상적인 의미 전달의 단위라고 할 수 있는 Scene 단위로 세분화하여 객체로 표준화하고 Scene에 대한 내용, 장소, 등장인물, 날씨, 계절, 시간, 관점 등의 정보 및 애니메이션 속성별 분류에 대한 정보를 메타데이터로 저장하게 된다. 메타데이터는 콘텐츠의 내용, 저작권, 유통, 관리 정보 등을 담고 있으므로 콘텐츠의 관리 및 유통에 매우 중요한 역할을 한다. 온톨로지와 같은 효율적인 메타데이터 관리체계가 구축되면 강력한 검색 서비스가 가능해지므로 향후 UCC 콘텐츠의 제작과 유통을 더욱 촉진할 것이다. 콘텐츠 객체의 메타데이터를 이용하여 애니메이션 콘텐츠의 검색과 재사용을 용이하게 할 수 있어, 제작자 및 일반사용자들이 자신의 취향에 따라 콘텐츠 객체들을 선택하고 재구성하여 패키징한 자신만의 창의적 애니메이션 콘텐츠를 용이하게 제작할 수 있다.

  • PDF