• Title/Summary/Keyword: 영상 언어

Search Result 530, Processing Time 0.022 seconds

A Method for Recovering Image Data for Caption Regions and Replacing Caption Text (비디오 자막 영역 원영상 복원 후 자막 교환 방법)

  • Chun, Byung-Tae;Han, Kyu-Seo;Bae, Young-Lae
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2001.10a
    • /
    • pp.743-746
    • /
    • 2001
  • 멀티미디어 정보 중 비디오 데이터는 정보량이 많기 때문에 자동화된 비디오 영상 처리 기술이 필요하다. 시청자의 이해와 시청의 편의성을 제공하기 위하여 대부분 비디오에 자막을 삽입하게 된다. 외국 방송물 및 영화에 삽입된 다른 언어 자막을 편집 과정에서 자막으로 교환 할 필요성이 종종 있게 된다. 기존의 방법들은 자막 부분을 충분히 포함하는 일정 영역에 특정 색상을 채운 후 새로운 자막을 삽입하게 된다. 기존 방법의 문제점은 많은 영역에 대해 비디오 영상 정보를 손실 시킴으로써 시청자에게 시청의 불편을 초래하고 자막 교환의 비 효율성과 부 자연스러움을 발생시킨다. 본 논문에서는 기존 방법의 문제점을 극복하기 위하여 자막 영역을 원영상으로 복원한 후 다른 자막으로 교환하는 방법을 제안하고자 한다. 원영상 복원을 위하여 비디오 정보와 BMA(Block Matching Algorithm)를 이용한 원영상 복원 방법을 제안하고, 복원된 영역에 다른 자막으로 교환함으로써 효과적인 자막 교환 방법을 제안하고자 한다. 실험 결과 원영상 복원을 이용한 자막 교환 방법은 기존 방법에 비해 자연스럽고 효과적인 교환 방법임을 볼 수 있었다.

  • PDF

Video retrieval system based on closed caption (폐쇄자막을 기반한 자막기반 동영상 검색 시스템)

  • 김효진;황인정;이은주;이응혁;민홍기
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.12a
    • /
    • pp.57-60
    • /
    • 2000
  • Even if the video data is utilized for a lot of field, its very difficult to reuse and search easily because of its atypical(unfixed form) and complicated structure. In this study, we presented the video retrieval system which is based on the synchronized closed caption and video, SMIL and SAMI languages which are described to structured and systematic form like multimedia data These have next structure; At first, a key word is inputted by user, then time stamp would be sampling from the string which has a key word in the caption file. To the result, the screen shows an appropriate video frame.

  • PDF

Estimating the Weight of Ginseng Using an Image Analysis (영상 분석을 이용한 수삼의 중량추정)

  • Jeong, Seokhoon;Ko, Kuk Won;Lee, Ji-Yeon;Lee, Jinho;Seo, Hyeonseok;Lee, Sangjoon
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.5 no.7
    • /
    • pp.333-338
    • /
    • 2016
  • This study is to estimate proximity without direct measurement of the weight of fresh ginseng. For this work, we developed a ginseng image acquiring instrument and obtained 126 ginseng images using the instrument. Image analysis and parameter extraction process was used C language based Labwindows/CVI development tools and open source library OpenCV. Estimation formula is made by weighing the sample with image analysis of fresh ginseng. We analyzed the correlation between the pixel number and the weight of ginseng using a linear regression approach. It was obtained a strong positive correlation coefficient of 0.9162 with a linearity value.

모션그래픽스- 동(動)에 의한 시공(時空)의 메시지

  • Kim, Hak-Min
    • Digital Contents
    • /
    • no.3 s.130
    • /
    • pp.126-129
    • /
    • 2004
  • 기술의 발전과 정신을 차리기 힘들 정도로 쏟아져 나오는 정보들로 인해 기존의 전통적 시각언어들은 벌써 형태적으로나 기능적으로 위기를 맞고 있다. 동영상에 기반을 둔 상호간의 의사소통은 이제 더 많은 것을 요구한다. 소프트웨어의 기술과 전통방식의 디자인을 결합하는 것만으로는 불충분하다. 앞으로의 모션그래픽은‘어떤 방식으로 메시지와 디자인, 시간, 움직임을 융합할 것인가’가 중요하다.

  • PDF

소재사용의 중복성에 따른 수용자 의미생산에 관한 연구 -이미지 생산자와 수용자의 의미생산양상 비교를 중심으로-

  • 이유연;이용우
    • Proceedings of the Korea Society of Design Studies Conference
    • /
    • 1999.10a
    • /
    • pp.16-17
    • /
    • 1999
  • 이미지는 오늘날 커뮤니케이션 행위를 지배하고 그 구성원의 사고 구조와 방식에 영향을 미친다. 이러한 현상은 TV 등 다양한 영상매체의 등장으로 가속화되었으며$^1$ 시각 커뮤니케이션이 갖는, 언어문화권을 뛰어넘는 의미의 보편성과 순간적인 의미 전달성이라는 기능적 속성으로 인해 급격히 진행되었다. (중략)

  • PDF

Design of GeoPhoto Contents Markup Language for u-GIS Contents (u-GIS 콘텐츠를 위한 GeoPhoto 콘텐츠 언어의 설계)

  • Park, Jang-Yoo;Nam, Kwang-Woo;Jin, Heui-Chae
    • Journal of Korea Spatial Information System Society
    • /
    • v.11 no.1
    • /
    • pp.35-42
    • /
    • 2009
  • This paper proposes a new GeoPhoto contents markup language that can create u-GIS contents by using the spatial photos. GeoPhoto contents markup language has designed the GeoPhoto contents model and markup language for contents that can be used the spatial photos information. GeoPhoto con tents markup language is represented by the convergence of GIS information, location information, photos information respectively. GeoPhoto contents markup language to provide a variety of pictures related to the content model consists of GeoPhoto contents model and operations between the GeoPhoto contents. GeoPh oto contents model supports GeoPhoto model, CubicPhoto model, Photo model and SequenceGeoPhoto mod el. In addition, this paper propose the Annotation operation, Enlargement operation and Overlay operation for represent the GeoPhoto contents. GeoPhoto Contents Markup Language has the advantage of supportin g user custom contents model of u-GIS.

  • PDF

Character Identification on Multiparty Dialogues using Multimodal Features (멀티모달 자질을 활용한 다중 화자 대화 속 인물 식별)

  • Han, Kijong;Choi, Seong-Ho;Shin, Giyeon;Zhang, Byoung-Tak;Choi, Key-Sun
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.215-219
    • /
    • 2018
  • 다중 화자 대화 속 인물 식별이란 여러 등장인물이 나오는 대본에서 '그녀', '아버지' 등 인물을 지칭하는 명사 또는 명사구가 실제 어떤 인물을 나타내는지 파악하는 문제이다. 대본 자연어 데이터만을 입력으로 하는 대화 속 인물 식별 문제는 드라마 대본에 대해서 데이터가 구축 되었고 이를 기반으로 여러 연구가 진행되었다. 그러나, 사람도 다중 화자 대화의 문장만 보고는 인물을 지칭하는 명사 또는 명사구가 실제 어떤 인물인지 파악하기 어려운 경우가 있다. 이에 본 논문에서는 발화가 되는 시점의 영상 장면 정보를 추가적으로 활용하여 인물 식별의 성능을 높이는 방법을 제시한다. 또한 기존 대화 속 인물 식별 연구들은 미리 정의된 인물을 대상으로 분류하는 형태로 접근해왔다. 이는 학습에 사용되지 않았던 인물이 나오는 임의의 다른 드라마 대본이나 대화 등에 바로 적용될 수 없다. 이에 본 논문에서는 영상 정보는 활용하되, 한번 학습하면 임의의 대본에 적용될 수 있도록 사전 인물 정보를 사용하지 않는 상호참조해결 기반의 인물 식별 방법도 제시한다.

  • PDF

A Study on Combining Bimodal Sensors for Robust Speech Recognition (강인한 음성인식을 위한 이중모드 센서의 결합방식에 관한 연구)

  • 이철우;계영철;고인선
    • The Journal of the Acoustical Society of Korea
    • /
    • v.20 no.6
    • /
    • pp.51-56
    • /
    • 2001
  • Recent researches have been focusing on jointly using lip motions and speech for reliable speech recognitions in noisy environments. To this end, this paper proposes the method of combining the visual speech recognizer and the conventional speech recognizer with each output properly weighted. In particular, we propose the method of autonomously determining the weights, depending on the amounts of noise in the speech. The correlations between adjacent speech samples and the residual errors of the LPC analysis are used for this determination. Simulation results show that the speech recognizer combined in this way provides the recognition performance of 83 % even in severely noisy environments.

  • PDF

Real-time Montage System Design using Contents Based Image Retrieval (내용 기반 영상 검색을 이용한 실시간 몽타주 시스템 설계)

  • Choi, Hyeon-Seok;Bae, Seong-Joon;Kim, Tae-Yong;Choi, Jong-Soo
    • Archives of design research
    • /
    • v.19 no.2 s.64
    • /
    • pp.313-322
    • /
    • 2006
  • In this paper, we introduce 'Contents Based Image Retrieval' which helps a user find the images he or she needs more easily and reconfigures the images automatically. With this system, we try to realize the language of (motion) picture, that is, the Montage from the viewpoint of the user. The Real-time Montage System introduced in this paper uses 'Discrete Fourier Transform'. Through this, the user can find the feature of the image selected and compare the analogousness with the image in the database. This kind of system leads to the user's speedy and effective retrieving, Also, we can acquire the movement image of the user by Camera Tracking in Real-time. The movement image acquired is to be reconfigured automatically with the image of the user. In this way, we can get an easy and speedy image reconfiguration which sets to the user's intention. This system is a New Media Design tool(entertainment) which induces a user enjoy participating in it. In this system, Thus, the user is not just a passive consumer of one-way image channels but an active subject of image reproduction in this system. It is expected to be a foundation for a new style of user-centered movie (media based entertainment).

  • PDF

Arrangement of narrative events and background in the contents of VR 360 video (VR 360 영상 콘텐츠에서의 서사적 사건 및 배경의 배치)

  • Lee, You-Na;Park, Jin-Wan
    • Journal of Digital Contents Society
    • /
    • v.19 no.9
    • /
    • pp.1631-1639
    • /
    • 2018
  • VR 360 video contents requires new visual language research in that the viewer inevitably makes partial appreciation unlike traditional video contents. In this study, we paid attention to the fact that arrangement of events and background elements in the 360-degree extended background of VR 360 video contents will play a major role in guiding the audience. Therefore, this study focuses on the arrangement of events and background elements from a narrative point of view, and analyzed the aspects of VR 360 video contents cases.