• Title/Summary/Keyword: 영상 표현

Search Result 2,313, Processing Time 0.035 seconds

GA based Adaptive Sampling for Image-based Walkthrough (영상기반 항해를 위한 유전 알고리즘 기반 적응적 샘플링)

  • Lee, Dong-Hoon;Kim, Jong-Ryul;Jung, Soon-Ki
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2005.11a
    • /
    • pp.721-723
    • /
    • 2005
  • 본 논문에서는 영상 기반 항해를 위하여 최적의 영상 샘플링을 획득하기 위한 영상 샘플링 알고리즘을 제안한다. 이를 위해 초기 과다 샘플링 된 영상열의 입력으로부터 장면 전역에 걸쳐 적절한 렌더링 품질을 보장하는 최소의 샘플링을 선택하는 감소 샘플링(decremental sampling)의 접근 방법을 기반으로 본 문제를 Set Covering 문제로 공식화한다. 각 시점으로부터 최상의 영상 품질을 보장하는 영역을 3D 와핑 알고리즘을 사용하여 포함 영역으로 표현하여, 이렇게 표현된 Set Covering 문제는 유전 알고리즘을 사용하여 최적화 문제로 설계한다. 실험 결과 본 논문에서 제안한 방법을 통해 최적 해를 구함으로서 만족할 만한 영상 기반 항해의 결과를 얻을 수 있었다.

  • PDF

The Analysis on 3-Dimensional Stereoscopic Video Production Using Anaglyph Method_Focused on the Animation 'YGGDRASIL' (애너글리프(Anaglyph)를 이용한 3차원 입체영상 제작 사례에 대한 분석 -애니메이션 <이그드라씰>을 중심으로)

  • Kang, Hyun-Jong
    • Journal of Korea Game Society
    • /
    • v.13 no.3
    • /
    • pp.131-140
    • /
    • 2013
  • The study analyzes how to create stereoscopic image in 3-dimension animation 'Yggdrasil', produced in Autodesk Maya(3D animation software), using Anaglyph method that is the oldest in 3-dimension stereoscopic video production. The anaglyph method help to produce stereoscopic images easily and to give effective 3D effect encoding each eye's image using filters of different colors. In addition, space direction applied visual perception theory expresses necessary distance, depth and speed effectively in 'Yggdrasil'

Content-Based Image Retrieval using 3rd Order Color Object Relation (3차 칼라 오브젝트 관계에 의한 내용 기반 영상 검색)

  • 권희용;최재우;이인행;조동섭;황희융
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1998.10c
    • /
    • pp.500-502
    • /
    • 1998
  • 최근 정보 사회에서 중요한 기술로 자리잡은 멀티미디어 정보 검색에 대한 다양한연구가 진행 중에 있다. 본 논문은 정지 화상에 대한 CBIR(Content-Based Image Retrieval)방법 중 칼라 정보를 이용한 방법에서 공간 정보를 충분하게 표현할 수 있는 알고리즘을 제안한다. 일반적으로 칼라 정보를 이용한 CBIR에서는 공간정보를 표현하기 위하여 인위적으로 영상을 여러 개로 분할하는 방법이나 영상의 히스토그램 내에서 영상의 위치 정보를 이용하는 방법 등이 연구되었다. 본 논문에서는 기존의 방법을 칼라 오브젝트의 추출 방법에 따라 1차와 2차 관계에 의한 방법으로 분류하고, 이동, 회전 특히 크기 변화(축소, 확대)에 탁월한 성능을 보이는 3차 칼라 오브젝트 관계를 이용한 방법을 소개한다. 제안된 알고리즘은 주어진 영상으로부터 양자화 된 24개의 버킷(bucket)을 생성해서 각 버킷 내의 칼라에 대한 색의 표준 편차로 색의 분산 정도를 나타내고, 빈도수가 높은 3개 버킷의 평균 칼라 위치를 계산해서 그들의 상호 각도를 추출하여 영상의 특징 벡터로 사용하였다. 실험결과 기존 방법보다 특히 영상의 크기 변화에 대해 좋은 결과를 얻을 수 있었으며, 계산량도 적어 효율적임을 보여 주었다.

  • PDF

Implementation of Component Ware for Medical Image Annotation and Analysis (의료영상 정보표현 및 분석을 위한 컴포넌트웨어 개발)

  • 장철진;강영민;정태락;조환규
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2004.04b
    • /
    • pp.703-705
    • /
    • 2004
  • 의학적 진단이나 치료를 하는 과정에선 실험이나 촬영을 통한 사진이나 영상이 많이 생성된다 의학용 이미지들은 각각 생성된 환경에 따른 특성을 가지고 있기 때문에. 효율적으로 이미지를 관리하기 위해서는 이미지의 특징이나 증상과 같은 정보들을 함께 표현해야한다. 본 논문에서는 의료 영상이 나타내는 정보를 표기하고, 카메라로부터 입력받는 영상을 출력 및 분석할 수 있는 컴포넌트웨어에 대해서 살펴본다. 본 논문에서 개발한 컴포넌트웨어는 다른 프로그램에서도 쉽게 영상관련 처리를 할 수 있도록 COM 기반의 Activex 컨트롤로 개발하였으며 이미지의 주석기능과 더불어 각각의 이미지나 카메라로부터 입력받는 동영상의 색 공간변환 및 왜곡보정 등의 기능을 가지고 있어, 보다 정교한 작업을 요하는 의료 영상처리 프로그램에 손쉽게 추가하여 사용할 수 있다.

  • PDF

The Dynamic Object Detection and Trajectory Representation for Construction of Panoramic Image (파노라믹 영상 구축을 위한 동적 객체 추출과 궤도 표현)

  • Shin, Seong-Yoon;Jang, Dai-Hyun;Shin, Kwang-Seong;Lee, Hyun-Chang;Rhee, Yang-Won
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2011.06a
    • /
    • pp.45-47
    • /
    • 2011
  • 파노라믹 영상에슨 정적 파노라믹 영상과 동적 파노라믹 영상이 있다. 동적 파노라믹 영상을 생성하기 위해서는 먼저 카메라의 움직임을 계산한 후에 객체의 움직임을 식별해야 한다. 본 논문에서는 동적 객체를 추출하기 위하여 우선 어파인 파라미터로 카메라의 움직임을 추출하고, 지역적 탐색으로 객체의 움직임을 탐지한다. 영상에 동적 객체가 있는 경우 동적 객체 판별을 위하여 영역 분할 방법을 이용하여 계산한다. 이러한 동적 객체의 궤도를 나타내기 위하여 먼저 동적 객체를 추출하는데, 4분할 탐색 기법을 이용하여 추출하게 된다. 최종적으로 구축되어진 배경 파노라믹 영상위에 동적 객체의 궤도를 표현한다.

  • PDF

Video Clip Ranking using Bounded Coordinate System Matching (BCS 최대 매칭을 이용한 유사 비디오 클립 랭킹)

  • Jung, Euisuk;Shim, Kyuseok
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.716-719
    • /
    • 2010
  • 비디오 클립은 최근 온라인 상에서 흔히 볼 수 있는 짧은 동영상으로 이러한 동영상 클립의 대규모 유입으로 유사한 비디오 클립을 검색하는 동영상 검색 엔진의 필요성이 크게 증가하였다. BCS은 최초의 단일 비디오 클립 표현 모델로 비디오 클립을 주성분 분석을 통해 얻어진 좌표축들을 그 위로 사상된 데이터들로 제한한 것들로 이루어진 좌표계로 요약한다. 그러나 BCS 은 영상의 순서를 무시한 벡터로 표현되므로 세밀한 유사도 구별이 불가능하다. 본 논문에서는 유사한 동영상에 대한 사람의 판단은 서로 유사한 일부분이 많이 존재하는 것을 기반으로 하는 점에 착안하여 하나의 동영상 클립을 샷 단위로 나누어 여러 개의 BCS 으로 나타낸 다음, 이들간의 유사도 측정을 통해 검색의 성능을 높이고자 하였다. 실험 결과 만족할 만한 정확도로 유사한 동영상 클립을 검색해 내는 것을 확인할 수 있다.

Ontology-based Image Understanding Systems (온톨로지 기반 영상이해 시스템)

  • Lee, In-K.;Seo, Suk-T.;Jeong, Hye-C.;Son, Seo-H.;Kwon, Soon-H.
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.17 no.3
    • /
    • pp.328-335
    • /
    • 2007
  • Ontology is represented by the shared concepts and relations among those. Many studies have been actively working on sharing human's knowledge with that of systems by using it. For a typical example, there is the design and implementation of ontology system for image understanding. However conventional studies on ontology-based image understanding have proposed not concrete methods but conceptual idea. In this paper, we propose an ontology-based image understanding system with following four processes: i)knowledge representation of a specific domain by the ontology, ii)feature extraction of objects through image processing and image analysis, iii)image interpretation by object features, and iv)reduction of ambiguity existing in image interpretation by ontology reasoning. We implement an image understanding system based on the proposed processed, and show the effectiveness of the proposed system from experimental results in a specific domain.

Painterly Stroke Generation using Object Motion Analysis (객체의 움직임 해석을 이용한 회화적 스트로크 생성 방법)

  • Lee, Ho-Chang;Seo, Sang-Hyun;Ryoo, Seung-Tack;Yoon, Kyung-Hyun
    • Journal of KIISE:Computer Systems and Theory
    • /
    • v.37 no.4
    • /
    • pp.239-245
    • /
    • 2010
  • Previous painterly rendering techniques normally use image gradients for stroke generation. Although image gradients are useful for expressing object shapes, it is difficult to express the flow or movements of objects of objects. In real painting, the use of brush strokes corresponding to the actual movement of objects allows viewers to recognize objects’ motion better and express the liveliness of the objects much more. In this paper, we propose a novel painterly stroke generation algorithm to express dynamic objects based on their motion information. We first extract motion information (magnitude, direction) of a scene from a set of image sequences from the same view. Then the motion directions are used for determining stroke orientations in the regions with significant motions. Where little motion is observed, image gradients are used for determining stroke orientations. Our algorithm is useful for realistically and dynamically representing moving objects.

A Study on the Mode of Address and Meaning Creation of Underlight in Broadcasting Lighting (방송조명에서 언더라이트의 표현 양식과 의미 창출에 관한 연구)

  • Kim, Young-Jin;Park, Gooman
    • Journal of Broadcast Engineering
    • /
    • v.21 no.5
    • /
    • pp.749-759
    • /
    • 2016
  • As image contents in broadcasting have been created in HDTVs and monitors have been commercialized, facial expression of objects in broadcasting lighting has become a very significant task. Figure modeling of objects in HDTVs requires smoother and cleaner video images owing to the expansion of precision of image expression by light. Lighting methods that enlighten characters in the digital generation have come to require a new change. Character modeling methods used on expression features of underlight are receiving attention for aesthetic expression of figures in HD images. Accordingly, the influence of underlight light source intensity, distance, and size on character modeling characteristics was experimentally measured and comparatively analyzed. The experiment results show that good results can be obtained only when the intensity is 17%∼25.5% in contrast to total brightness, distance is beyond 40cm, and the size is at least 20cm, to exhibit the optimum effect of underlight. This data will become material with high usage to gain smoother and cleaner images of characters in future high-quality images.

Realistic Expression Factor to Visual Presence of Virtual Avatar in Eye Reflection (가상 아바타의 각막면에 비친 반사영상의 시각적 실재감에 대한 실감표현 요소)

  • Won, Myoung Ju;Lee, Eui Chul;Whang, Min-Cheol
    • The Journal of the Korea Contents Association
    • /
    • v.13 no.7
    • /
    • pp.9-15
    • /
    • 2013
  • In the VnR (Virtual and Real Worlds) of recent virtual reality convergence, the modelling of realistic human face is focused on the facial appearance such as the shape of facial parts and muscle movement. However, the facial changing parameters caused by environmental factors beyond the facial appearance factors can be regarded as important ones in terms of effectively representing virtual avatar. Therefore, this study evaluates user's visual feeling response according to the opacity variation of eye reflection of virtual avatar which is considered as a new parameter for reprenting realistic avatar. Experimental result showed that more clear eye reflection induced more realistic visual feeling of subjects. This result can be regarded as a basis for designing realistic virtual avatar by supporting a new visual realistic representing factor (eye reflection) and its degree of representation (reflectance ratio).