• Title/Summary/Keyword: 장면

Search Result 1,568, Processing Time 0.029 seconds

Automatic Color Transformation of Character Using Color Transformation Matrix in 2D Animation (2D 애니메이션에서 색 변환행렬을 이용한 캐릭터의 자동 색 변환)

  • Jung, Hyun-Sun;Moon, Yong-Ho;Kim, Jae-Ho
    • Journal of Korea Multimedia Society
    • /
    • v.10 no.10
    • /
    • pp.1240-1250
    • /
    • 2007
  • We introduce technique for color transformation of characters between scenes in 2D animation. As colors are perceived differently owing to light source, so character colors like clothes, skin and so on are colored differently owing to atmosphere of each scene. This paper is made an attempt to solve mathematically color assignment of characters which has been worked by hand so far. We can find a matrix for color transformation of characters by appling principle of color stimulus to our algorithm. In scenes of existing 2D animation, basic colors and colors under light source of characters are used for the matrix. And matrixes are obtained for each scenes of 2D animation. If we are known basic colors of some characters, you can derive character colors under other light source environments using the matrix. Therefore, this paper describes automatic color transformation of characters between animation scenes.

  • PDF

Automatic Color Transformation of Characters Between 2D Animation Scenes Using Neural Network (신경회로망을 이용한 2D 애니메이션 장면 간의 캐릭터 자동 색 변환)

  • Jung, Hyun-Sun;Lee, Jae-Sik;Kim, Jae-Ho
    • Journal of Korea Multimedia Society
    • /
    • v.11 no.9
    • /
    • pp.1286-1295
    • /
    • 2008
  • Colors of 2D animation characters are generally assigned by art directors' subjective color sense. Even same characters should be colored differently according to the mood of animation scenes. In this study, we introduce the model for automatic color transformation of characters by using neural network. It can not only create automatically colors of characters which are good matched with 2D animation scenes but also reproduce art directors' subjective color sense. Specifically, this neural network model is initially made to learn the patterns of color change between basic colors of characters and colors of characters in various scene. Then if you know basic colors of some characters, you can derive colors of characters under other light source environments using the learned neural network. Subjective ratings(which is adopted to verify the proposed model) by color experts on the automatically transformed colors showed that the colors created by the model tended to be evaluated natural.

  • PDF

Semantic-based Scene Retrieval Using Ontologies for Video Server (비디오 서버에서 온톨로지를 이용한 의미기반 장면 검색)

  • Jung, Min-Young;Park, Sung-Han
    • Journal of the Institute of Electronics Engineers of Korea CI
    • /
    • v.45 no.5
    • /
    • pp.32-37
    • /
    • 2008
  • To ensure access to rapidly growing video collection, video indexing is becoming more and more important. In this paper, video ontology system for retrieving a video data based on a scene unit is proposed. The proposed system creates a semantic scene as a basic unit of video retrieval, and limits a domain of retrieval through a subject of that scene. The content of semantic scene is defined using the relationship between object and event included in the key frame of shots. The semantic gap between the low level feature and the high level feature is solved through the scene ontology to ensure the semantic-based retrieval.

Deep Neural Network-Based Scene Graph Generation for 3D Simulated Indoor Environments (3차원 가상 실내 환경을 위한 심층 신경망 기반의 장면 그래프 생성)

  • Shin, Donghyeop;Kim, Incheol
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.8 no.5
    • /
    • pp.205-212
    • /
    • 2019
  • Scene graph is a kind of knowledge graph that represents both objects and their relationships found in a image. This paper proposes a 3D scene graph generation model for three-dimensional indoor environments. An 3D scene graph includes not only object types, their positions and attributes, but also three-dimensional spatial relationships between them, An 3D scene graph can be viewed as a prior knowledge base describing the given environment within that the agent will be deployed later. Therefore, 3D scene graphs can be used in many useful applications, such as visual question answering (VQA) and service robots. This proposed 3D scene graph generation model consists of four sub-networks: object detection network (ObjNet), attribute prediction network (AttNet), transfer network (TransNet), relationship prediction network (RelNet). Conducting several experiments with 3D simulated indoor environments provided by AI2-THOR, we confirmed that the proposed model shows high performance.

A Study on Scene Change Detection Using Facial Regions Extraction (얼굴 영역 추출에 의한 장면 전환 검출에 관한 연구)

  • 최경애;최기호
    • Proceedings of the Korea Multimedia Society Conference
    • /
    • 2002.05d
    • /
    • pp.609-613
    • /
    • 2002
  • 본 논문에서는 효과적인 비디오 인덱싱을 위해 얼굴 영역 추출을 통한 장면 전환 검출 방법을 제시하였다. 히스토그램과 사람의 피부색 검출을 통해 사람의 얼굴을 포함하는 후보 프레임을 찾고, 얼굴 영역과 특징 추출을 통해 사람을 포함하는 키 프레임을 검출하여 비디오의 장면 전환 프레임을 검출하고, 실험을 통해 제안된 방법의 우수성을 보였다.

  • PDF

Korean Clothes Shopping Mall for the VRML (VRML을 이용한 한복 Fashion show 및 Shopping Mall)

  • 정지문;김호성;조윤범;최성
    • Proceedings of the KAIS Fall Conference
    • /
    • 2000.10a
    • /
    • pp.291-296
    • /
    • 2000
  • 본 논문은 가상현실의 한 분야인 VRML을 이용하여 한복 Shopping mall과 Fashion show에 관하여 기술하였다. VRML로 3차원의 장면 생성과 각 장면에 대한 움직임을 설계함으로 좀더 인터렉티브한 장면을 생성할 수 있다. 그리고 VRML의 기본 구성이 되는 한복에 대하여심도 있는 연구로 가상현실 공간에서 한복쇼핑몰을 운영하는 것에 대하여 연구하였다.

A Fast Scene Change Detection Algorithm using Direct Feature Extraction from MPEG Compressed Videos (MPEG 압축 비디오로부터 특징 정보의 직접 추출을 통한 바른 장면 전환 검출 알고리즘)

  • 김영민;이성환
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10b
    • /
    • pp.404-406
    • /
    • 1999
  • 비디오 데이터의 효율적인 저장, 관리를 위해서는 장면 전환 검출을 통한 비디오 분할 기술에 대한 연구가 필요하므로, 최근 들어 압축 비디오상의 특징 정보를 직접 추출하여 장면 전환 검출에 사용하는 방법에 대한 연구가 많이 이루어지고 있다. 본 논문에서는 MPEG 압축 비디오 상의 에지 정보를 복호화 과정을 거치지 않고 직접 추출하여 장면 전환 검출에 사용하는 새로운 방법을 제안하였다. 이산 여현 변환(DCT)된 블록내 AC 계수의 부호를 통해 에지의 모양을 알아내었으며, AC 계수간의 상관 관계를 통해 에지의 방향과 세기를 측정하여 프레임을 정합하는 방법을 사용하였다. 실험 결과 사용한 특징 정보가 명도나 색상 변환에 무관하여 잘못 검출하는 비율이 현저히 적었으며, 영상을 완전 복호화한 후 에지를 구하여 장면 전환 검출을 하는 방법에 비해 약 5-6배 속도가 빠름을 확인할 수 있었다.

  • PDF

A Study on Recognizing faces in broadcast video (영상에서의 얼굴인식)

  • Han Jun-hee;Nam Kee-hwan;Joung Youn-sook;Jeong Joo-byeong;Ra Sang-dong;Bae Cheol-soo
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.339-342
    • /
    • 2004
  • 최근 영상 자료의 저장과 검색을 위한 시스템이 많이 연구되고 있다. 방대한 양의 영상 자료를 디지털화하여 파일로 저장하고 영상에 관한 각종 정보를 데이터 베이스로 구성한 뒤, 키워드 등을 사용하여 필요한 영상을 네트워크를 통하여 검색하고 이것을 편집 등에 활용할 수 있도록 하는 것이 본 논문의 목적이다. 영상을 데이터베이스로 구축하기 위해 선행되어야 할 것은 연속적인 장면마다 또는 의미 있는 장면마다 영상을 분류하는 작업이다. 본 논문에서는 MPEG 비트스트림을 분석하여 장면 전환 지점을 자동으로 찾는 실험을 워크스테이션을 통하여 시행하였으며 기존 실행한 실험을 바탕으로 PC상에서 동영상 검색 시스템을 구현하였다. 동영상 검색 시스템은 뉴스, 드라마는 물론 각종 보안 영상 등 다양한 분야의 영상을 분석하여 장면 전환 지점을 찾고, 각 장면의 대표 영상을 저장한 뒤, 네트워크 환경에서 동영상을 검색할 수 있도록 만든 시스템이다.

  • PDF

Soccer Video Highlight Summarization for Intelligent PVR (지능형 PVR을 위한 축구 동영상 하이라이트 요약)

  • Kim, Hyoung-Gook;Shin, Dong
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.209-212
    • /
    • 2009
  • 본 논문에서는 MDCT기반의 오디오 특징과 영상 특징을 이용하여 축구 동영상의 하이라이트를 효과적으로 요약하는 방식을 제안한다. 제안하는 방식에서는 입력되는 축구 동영상을 비디오 신호와 오디오 신호로 분리한 후에, 분리된 연속적인 오디오 신호를 압축영역의 MDCT계수를 통해 이벤트 사운드별로 분류하여 오디오 이벤트 후보구간을 추출한다. 입력된 비디오 신호에서는 장면 전환점을 추출하고 추출된 장면 전환점으로부터 페널티 영역을 검출한다. 검출된 오디오 이벤트 후보구간과 검출된 페널티 영역장면을 함께 결합하여 축구 동영상의 이벤트 장면을 검출한다. 검출된 페널티 영역 장면을 통해 검출된 이벤트 구간을 다른 이벤트 구간보다 더 높은 우선순위를 갖는 하이라이트로 선정하여 요약본이 생성된다. 생성된 하이라이트 요약본의 평가는 precision과 recall을 통해 정확도를 평가하였다.

  • PDF

Efficient Scene Update Method for Scene Synchronization among the Terminals (단말기 간 장면 동기화를 위한 효율적인 장면 업데이트 방법)

  • Park, Sanghyun;Kim, Hyun-Cheol;Choi, Ji Hoon;Cha, Jihun
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.07a
    • /
    • pp.541-543
    • /
    • 2011
  • 최근 다양한 단말기를 대상으로 동일한 미디어 콘텐츠, 애플리케이션 서비스를 제공하는 N-Screen 전략이 두드러지고 있다. N-Screen 서비스를 제공하는 방법의 하나로 단말 간 유사한 사용자 인터페이스를 제공하는 방법이 있다. 이는 사용자에게 친숙한 사용자 경험을 제공하는 장점이 있으며, 이러한 방법을 위해서는 단말 간 장면 동기화가 매우 중요하다. 기존의 N-Screen 서비스에서는 장면 동기화를 위하여, 단말 간 API 인터페이스 등을 사전에 조율해야 하는 문제점이 존재한다. 이에 본 논문은 상기와 같은 N-Screen 서비스의 동기화 방법의 문제점을 해결하기 위하여, 명령어 혹은 이벤트 중심이 아닌 자원 중심의 단말 간 통신 방법에 대해 제안하였다. 이를 위하여 장면 업데이트의 내용을 효율적으로 XML 형태로 기술하고, 전송하는 방법에 대해 연구하였다.

  • PDF