• Title/Summary/Keyword: 비디오 이미지

Search Result 447, Processing Time 0.026 seconds

Image captioning and video captioning using Transformer (Transformer를 사용한 이미지 캡셔닝 및 비디오 캡셔닝)

  • Gi-Duk Kim;Geun-Hoo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.303-305
    • /
    • 2023
  • 본 논문에서는 트랜스포머를 사용한 이미지 캡셔닝 방법과 비디오 캡셔닝 방법을 제안한다. 트랜스포머의 입력으로 사전 학습된 이미지 클래스 분류모델을 거쳐 추출된 특징을 트랜스포머의 입력으로 넣고 인코더-디코더를 통해 이미지와 비디오의 캡션을 출력한다. 이미지 캡셔닝의 경우 한글 데이터 세트를 학습하여 한글 캡션을 출력하도록 학습하였으며 비디오 캡셔닝의 경우 MSVD 데이터 세트를 학습하여 학습 후 출력 캡션의 성능을 다른 비디오 캡셔닝 모델의 성능과 비교하였다. 비디오 캡셔닝에서 성능향상을 위해 트랜스포머의 디코더를 변형한 GPT-2를 사용하였을 때 BLEU-1 점수가 트랜스포머의 경우 0.62, GPT-2의 경우 0.80으로 성능이 향상됨을 확인하였다

  • PDF

A Study on the Interactive Effect of Spoken Words and Imagery not Synchronized in Multimedia Surrogates for Video Gisting (비디오 의미 파악을 위한 멀티미디어 요약의 비동시적 오디오와 이미지 정보간의 상호 작용 효과 연구)

  • Kim, Hyun-Hee
    • Journal of the Korean Society for Library and Information Science
    • /
    • v.45 no.2
    • /
    • pp.97-118
    • /
    • 2011
  • The study examines the interactive effect of spoken words and imagery not synchronized in audio/image surrogates for video gisting. To do that, we conducted an experiment with 64 participants, under the assumption that participants would better understand the content of videos when viewing audio/image surrogates rather than audio or image surrogates. The results of the experiment showed that overall audio/image surrogates were better than audio or image surrogates for video gisting, although the unsynchronized multimedia surrogates made it difficult for some participants to pay attention to both audio and image when the content they present is very different.

Location Change Estimation in a Video Stream based on SIFT Feature Distributions (SIFT 특성 분포를 이용한 비디오 스트림의 장소 변화 예측)

  • Yoo, Jun-Hee;Seok, Ho-Sik;Zhang, Byoung-Tak
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.295-298
    • /
    • 2011
  • 비디오 데이터의 지능적인 처리를 위해서는 사전에 작성한 메타데이터에 제한 받지 않는 유연한 접근방법이 필요하다. 본 논문에서는 엔트로피를 이용하여 적절한 특징을 추출한 후 비디오를 처리하는 방법을 소개한다. 이미지 인식이 잘 될 경우 일정한 이미지 조합으로 비디오의 배경을 설명할 수 있지만, 이미지 인식이 어렵기 때문에 동일한 배경일지라도 등장 인물의 움직임, 촬영 각도의 변화 등 사소한 변화가 발생하면 컴퓨터는 다른 이미지인 것으로 간주하게 된다. 우리가 제안하는 방법은 비디오를 구성하는 이미지 프레임에서 추출한 SIFT(Scale Invariant Feature Transform) 특성의 분포를 엔트로피에 기반하여 재구성한 후 분포 변화를 통해 장소 변화를 추정하는 방법이다. 제안 방법은 비디오 데이터의 이미지를 특징 짓는 비주얼 워드의 분포를 활용하기 때문에 사소한 변화 정도의 영향을 받지 않으면서 동시에 배경의 확연한 변화를 나타낼 수 있다. 우리는 실제 TV 드라마 데이터에 적용하여 제안 방법의 유용성을 확인하였다.

Remote Sensing of Wave Trajectory in Surf Zone using Oblique Digital Videos (해안 디지털 비디오를 이용한 쇄파지역에서의 파랑궤적 측정)

  • Yoo, Je-Seon;Shin, Dong-Min;Cho, Yong-Sik
    • Journal of Korean Society of Coastal and Ocean Engineers
    • /
    • v.20 no.4
    • /
    • pp.333-341
    • /
    • 2008
  • A remote sensing technique to identify trajectories of breaking waves in the surf zone using oblique digital nearshore videos is proposed. The noise arising from white foam induced by wave breaking has hindered accurate remote sensing of wave properties in the surf zone. For this reason, this paper focuses on image processing to remove the noise and wave trajectory identification essential for wave property estimation. The nearshore video imagery sampled at 3 Hz are used, covering length scale(100 m). Original image sequences are processed through image frame differencing and directional low-pass image filtering to remove the noise characterized by high frequencies in the video imagery. The extraction of individual wave crest features is conducted using a Radon transform-based line detection algorithm in the processed cross-shore image timestacks having a two-dimensional space-time domain. The number of valid wave crest trajectories identified corresponds to about 2/3 of waves recorded by the in-situ sensors.

Video Segments Change Point Inference with Evolutionary Particle Filter (진화파티클필터를 이용한 비디오 세그먼트 전환점 추정)

  • Yu, Jun-Hui;Jang, Byeong-Tak
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2012.06b
    • /
    • pp.363-365
    • /
    • 2012
  • 데이터의 규모 및 활용도, 그리고 사용자 접근성 측면에서 실세계 데이터에서 가장 중요한 이슈가 되는 것은 비디오 데이터이다. 장르나 등장인물, 배경 등이 매우 상이한 대량의 비디오 데이터들이 등장하고 있기 때문에, 통일된 사전지식을 이용한 비디오 데이터 분석이 매우 비현실적이 되어가고 있으며 사전지식을 활용하지 않는 비디오 분석기법의 중요성이 커지고 있다. 본 논문에서는 진화 파티를 필터링과 우점 이미지를 이용하여 비디오 데이터를 분절(Segmentation)하는 기법을 소개한다. 이미지 분절화 과정에서 해결해야 할 난점은 시점 변화 및 움직임 등에 의해 발생하는 사소한 변화가 컴퓨터 관점에서는 무시하기 어려운 큰 변화로 해석될 수 있다는 점이다. 동일장면에서의 시점 변화와 같은 사소한 변화로 인하여 동일 세그먼트를 추정하지 못하는 어려움을 해결하기 위하여 우리는 이미지 일부를 표현하는 파티클의 개체군을 생성하여 협력적인 방식으로 개별 이미지 세그먼트를 표현하는 방법을 개발하였다. 또한 동일 인물의 움직임과 같은 변화에 대응할 수 있도록 진화 파티를 필터링 방법을 컬러 히스토그램 방법과 결합하여 추론 성능을 한층 개선하였다. 실제 TV 드라마에 대하여 수행된 인간 평가자의 분절 평가 결과와 비교하여 제안 방법의 성능을 확인하였다.

Audio-Visual Scene Aware Dialogue System Utilizing Action From Vision and Language Features (이미지-텍스트 자질을 이용한 행동 포착 비디오 기반 대화시스템)

  • Jungwoo Lim;Yoonna Jang;Junyoung Son;Seungyoon Lee;Kinam Park;Heuiseok Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.253-257
    • /
    • 2023
  • 최근 다양한 대화 시스템이 스마트폰 어시스턴트, 자동 차 내비게이션, 음성 제어 스피커, 인간 중심 로봇 등의 실세계 인간-기계 인터페이스에 적용되고 있다. 하지만 대부분의 대화 시스템은 텍스트 기반으로 작동해 다중 모달리티 입력을 처리할 수 없다. 이 문제를 해결하기 위해서는 비디오와 같은 다중 모달리티 장면 인식을 통합한 대화 시스템이 필요하다. 기존의 비디오 기반 대화 시스템은 주로 시각, 이미지, 오디오 등의 다양한 자질을 합성하거나 사전 학습을 통해 이미지와 텍스트를 잘 정렬하는 데에만 집중하여 중요한 행동 단서와 소리 단서를 놓치고 있다는 한계가 존재한다. 본 논문은 이미지-텍스트 정렬의 사전학습 임베딩과 행동 단서, 소리 단서를 활용해 비디오 기반 대화 시스템을 개선한다. 제안한 모델은 텍스트와 이미지, 그리고 오디오 임베딩을 인코딩하고, 이를 바탕으로 관련 프레임과 행동 단서를 추출하여 발화를 생성하는 과정을 거친다. AVSD 데이터셋에서의 실험 결과, 제안한 모델이 기존의 모델보다 높은 성능을 보였으며, 대표적인 이미지-텍스트 자질들을 비디오 기반 대화시스템에서 비교 분석하였다.

  • PDF

Joint Training of Neural Image Compression and Super Resolution Model (신경망 이미지 부호화 모델과 초해상화 모델의 합동훈련)

  • Cho, Hyun Dong;Kim, YeongWoong;Cha, Junyeong;Kim, DongHyun;Lim, Sung Chang;Kim, Hui Yong
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.1191-1194
    • /
    • 2022
  • 인터넷의 발전으로 수많은 이미지와 비디오를 손쉽게 이용할 수 있게 되었다. 이미지와 비디오 데이터의 양이 기하급수적으로 증가함에 따라, JPEG, HEVC, VVC 등 이미지와 비디오를 효율적으로 저장하기 위한 부호화 기술들이 등장했다. 최근에는 인공신경망을 활용한 학습 기반 모델이 발전함에 따라, 이를 활용한 이미지 및 비디오 압축 기술에 관한 연구가 빠르게 진행되고 있다. NNIC (Neural Network based Image Coding)는 이러한 학습 가능한 인공신경망 기반 이미지 부호화 기술을 의미한다. 본 논문에서는 NNIC 모델과 인공신경망 기반의 초해상화(Super Resolution) 모델을 합동훈련하여 기존 NNIC 모델보다 더 높은 성능을 보일 수 있는 방법을 제시한다. 먼저 NNIC 인코더(Encoder)에 이미지를 입력하기 전 다운 스케일링(Down Scaling)으로 쌍삼차보간법을 사용하여 이미지의 화소를 줄인 후 부호화(Encoding)한다. NNIC 디코더(Decoder)를 통해 부호화된 이미지를 복호화(Decoding)하고 업 스케일링으로 초해상화를 통해 복호화된 이미지를 원본 이미지로 복원한다. 이때 NNIC 모델과 초해상화 모델을 합동훈련한다. 결과적으로 낮은 비트량에서 더 높은 성능을 볼 수 있는 가능성을 보았다. 또한 합동훈련을 함으로써 전체 성능의 향상을 보아 학습 시간을 늘리고, 압축 잡음을 위한 초해상화 모델을 사용한다면 기존의 NNIC 보다 나은 성능을 보일 수 있는 가능성을 시사한다.

  • PDF

Implementation of a System for Image Tag Recommendation Using an Android Mobile Platform (안드로이드 모바일 플랫폼에서 이미지 태그 추천을 위한 시스템 구현)

  • Eom, Wonyong;Min, Hyun-Seok;Lee, Sihyoung;Neve, Wesley De;Ro, Yong Man
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.11a
    • /
    • pp.609-612
    • /
    • 2010
  • 최근 스마트 폰을 이용한 사용자들이 생성하는 사진 데이터의 양이 급속히 증가하였다. 폭발적인 사진 데이터 양의 증가는 사용자가 원하는 사진에 대한 접근을 어렵게 하였다. 때문에 본 연구에서는 사진의 접근 및 관리의 효율을 높이기 위한 폭소노미를 통한 태그 추천 시스템을 안드로이드 모바일 플랫폼과 서버의 연계로 구현하였다. 구현된 애플리케이션은 25,000 장의 사진을 기반으로 하는 폭소노미를 통해 태그 추천을 하며, 태그 추천에 평균적으로 5.5 초의 시간이 걸렸다.

Gender Display in Music Videos: Gender Image and Sexuality by Genre and Gender (국내 뮤직비디오에 나타난 성역할 고정관념: 노래 장르와 성별 차이를 중심으로)

  • Joe, Susan
    • The Journal of the Korea Contents Association
    • /
    • v.14 no.7
    • /
    • pp.58-69
    • /
    • 2014
  • The purpose of this study was to examine stereotype of gender role in music video, comparing of gender image, sexuality(body exposure & sexual expression) by genre and gender difference. A content analysis of 300 songs and 517 characters was conducted between 2004 and 2013. Results were including followings. While women engaged in classic image, man engaged in naive image. R&B and Ballad demonstrated more classic image of women. Ballad, R&B, and Rock demonstrated more naive image of men than other genre. Sexuality was more prominent in dance and hip-hop genre. Compared to male character, female character was more sexually objectified, held to exposer herself and more likely to demonstrated sexually alluring behavior.

Music Video Research of Photograph Image (사진적 이미지의 뮤직비디오 연구)

  • Kang, Hong Gue
    • The Journal of the Korea Contents Association
    • /
    • v.16 no.2
    • /
    • pp.251-256
    • /
    • 2016
  • The music video was produced by the multimedia type of a video clip by adding the image to match it with the release of audio recordings. mass production. Although originally it started as a means of promoting music as mere receive attention as the main content of the music cable broadcast M-TV began mass production. The 21st century has used the technology in various fields, including animated films and live action films, documentaries smart phone era. Among attempts to analyze their work tends to center the photographer and music video director Anton Corbijin and Stephen Sednaoui representing a photographic image of a music video