• 제목/요약/키워드: 비디오 이미지

검색결과 446건 처리시간 0.026초

Transformer를 사용한 이미지 캡셔닝 및 비디오 캡셔닝 (Image captioning and video captioning using Transformer)

  • 김기덕;이근후
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제67차 동계학술대회논문집 31권1호
    • /
    • pp.303-305
    • /
    • 2023
  • 본 논문에서는 트랜스포머를 사용한 이미지 캡셔닝 방법과 비디오 캡셔닝 방법을 제안한다. 트랜스포머의 입력으로 사전 학습된 이미지 클래스 분류모델을 거쳐 추출된 특징을 트랜스포머의 입력으로 넣고 인코더-디코더를 통해 이미지와 비디오의 캡션을 출력한다. 이미지 캡셔닝의 경우 한글 데이터 세트를 학습하여 한글 캡션을 출력하도록 학습하였으며 비디오 캡셔닝의 경우 MSVD 데이터 세트를 학습하여 학습 후 출력 캡션의 성능을 다른 비디오 캡셔닝 모델의 성능과 비교하였다. 비디오 캡셔닝에서 성능향상을 위해 트랜스포머의 디코더를 변형한 GPT-2를 사용하였을 때 BLEU-1 점수가 트랜스포머의 경우 0.62, GPT-2의 경우 0.80으로 성능이 향상됨을 확인하였다

  • PDF

비디오 의미 파악을 위한 멀티미디어 요약의 비동시적 오디오와 이미지 정보간의 상호 작용 효과 연구 (A Study on the Interactive Effect of Spoken Words and Imagery not Synchronized in Multimedia Surrogates for Video Gisting)

  • 김현희
    • 한국문헌정보학회지
    • /
    • 제45권2호
    • /
    • pp.97-118
    • /
    • 2011
  • 본 연구는 오디오 및 이미지 정보가 비동시적으로 결합된 오디오/이미지 요약이 오디오 요약 또는 이미지 요약만 사용했을 때 보다 어떤 상호 작용 효과를 가지고 있는지 살펴보았다. 이를 위해서 오디오/이미지 요약, 오디오 요약 및 이미지 요약을 비디오의 의미 추출에 있어서의 정확도 즉, 요약문 및 항목 선택의 정확도와 이용자들의 이 세 가지 요약에 대한 관점을 비교, 분석하였다. 분석 결과, 요약문 정확도에서는 비디오 유형에 관계없이 상호작용 효과를 확인하였으나 항목 선택의 정확도에서는 상호 작용 효과가 입증되지 못했다. 끝으로 이용자들은 오디오/이미지 요약에 대해 오디오와 이미지 정보를 병행하여 시청함으로서 비디오 내용에 대한 이해를 빠르게 하지만 때로는 이 두 정보간의 비동시성으로 인하여 비디오 의미 파악을 방해하는 경우도 생겨난다고 기술하였다.

SIFT 특성 분포를 이용한 비디오 스트림의 장소 변화 예측 (Location Change Estimation in a Video Stream based on SIFT Feature Distributions)

  • 유준희;석호식;장병탁
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2011년도 한국컴퓨터종합학술대회논문집 Vol.38 No.1(C)
    • /
    • pp.295-298
    • /
    • 2011
  • 비디오 데이터의 지능적인 처리를 위해서는 사전에 작성한 메타데이터에 제한 받지 않는 유연한 접근방법이 필요하다. 본 논문에서는 엔트로피를 이용하여 적절한 특징을 추출한 후 비디오를 처리하는 방법을 소개한다. 이미지 인식이 잘 될 경우 일정한 이미지 조합으로 비디오의 배경을 설명할 수 있지만, 이미지 인식이 어렵기 때문에 동일한 배경일지라도 등장 인물의 움직임, 촬영 각도의 변화 등 사소한 변화가 발생하면 컴퓨터는 다른 이미지인 것으로 간주하게 된다. 우리가 제안하는 방법은 비디오를 구성하는 이미지 프레임에서 추출한 SIFT(Scale Invariant Feature Transform) 특성의 분포를 엔트로피에 기반하여 재구성한 후 분포 변화를 통해 장소 변화를 추정하는 방법이다. 제안 방법은 비디오 데이터의 이미지를 특징 짓는 비주얼 워드의 분포를 활용하기 때문에 사소한 변화 정도의 영향을 받지 않으면서 동시에 배경의 확연한 변화를 나타낼 수 있다. 우리는 실제 TV 드라마 데이터에 적용하여 제안 방법의 유용성을 확인하였다.

해안 디지털 비디오를 이용한 쇄파지역에서의 파랑궤적 측정 (Remote Sensing of Wave Trajectory in Surf Zone using Oblique Digital Videos)

  • 유제선;신동민;조용식
    • 한국해안·해양공학회논문집
    • /
    • 제20권4호
    • /
    • pp.333-341
    • /
    • 2008
  • 본 연구에서는 해안 디지털 비디오를 이용하여 쇄파지역에서의 파랑궤적을 원격으로 측정하는 기술을 제안한다. 쇄파에 의해 발생하는 거품은 비디오 이미지로부터 파랑속성을 측정하는데 큰 오차를 야기한다. 이러한 이유로, 본 연구는 이미지 상에서 파랑신호와는 다른 거품 노이즈를 제거하기 위한 고급 영상처리기술과 쇄파지역에서 파랑속성을 효과적으로 측정하는데 필요한 파랑궤적을 검출하는 방법에 초점을 두고 있다. 이를 위하여 본 연구는 100 m 이상 거리범위의 쇄파지역에서 3 Hz 주파수로 촬영한 해안 비디오 자료를 이용한다. 비디오 원 영상으로부터 고주파수의 특성을 가지는 거품신호를 제거하기 위하여 이미지 프레임 후방차분과 방향성 로패스 이미지 필터를 통하여 비디오 이미지를 영상처리한다. 개별의 쇄파 파랑궤적은 레이돈 변환 선인식 알고리듬을 이용하여, 거품 노이즈가 제거된 해안선 수직방향 이미지 Timestack상에 적용하여 검출된다. 이 이미지 Timestack의 물리적 공간차원은 2차원 공간-시간 도메인으로 표현된다. 비디오 자료로부터 측정된 유효 파랑궤적의 개수는 실측자료로부터 얻어진 파랑개수의 약 2/3이다.

진화파티클필터를 이용한 비디오 세그먼트 전환점 추정 (Video Segments Change Point Inference with Evolutionary Particle Filter)

  • 유준희;장병탁
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2012년도 한국컴퓨터종합학술대회논문집 Vol.39 No.1(B)
    • /
    • pp.363-365
    • /
    • 2012
  • 데이터의 규모 및 활용도, 그리고 사용자 접근성 측면에서 실세계 데이터에서 가장 중요한 이슈가 되는 것은 비디오 데이터이다. 장르나 등장인물, 배경 등이 매우 상이한 대량의 비디오 데이터들이 등장하고 있기 때문에, 통일된 사전지식을 이용한 비디오 데이터 분석이 매우 비현실적이 되어가고 있으며 사전지식을 활용하지 않는 비디오 분석기법의 중요성이 커지고 있다. 본 논문에서는 진화 파티를 필터링과 우점 이미지를 이용하여 비디오 데이터를 분절(Segmentation)하는 기법을 소개한다. 이미지 분절화 과정에서 해결해야 할 난점은 시점 변화 및 움직임 등에 의해 발생하는 사소한 변화가 컴퓨터 관점에서는 무시하기 어려운 큰 변화로 해석될 수 있다는 점이다. 동일장면에서의 시점 변화와 같은 사소한 변화로 인하여 동일 세그먼트를 추정하지 못하는 어려움을 해결하기 위하여 우리는 이미지 일부를 표현하는 파티클의 개체군을 생성하여 협력적인 방식으로 개별 이미지 세그먼트를 표현하는 방법을 개발하였다. 또한 동일 인물의 움직임과 같은 변화에 대응할 수 있도록 진화 파티를 필터링 방법을 컬러 히스토그램 방법과 결합하여 추론 성능을 한층 개선하였다. 실제 TV 드라마에 대하여 수행된 인간 평가자의 분절 평가 결과와 비교하여 제안 방법의 성능을 확인하였다.

이미지-텍스트 자질을 이용한 행동 포착 비디오 기반 대화시스템 (Audio-Visual Scene Aware Dialogue System Utilizing Action From Vision and Language Features)

  • 임정우;장윤나;손준영;이승윤;박기남;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.253-257
    • /
    • 2023
  • 최근 다양한 대화 시스템이 스마트폰 어시스턴트, 자동 차 내비게이션, 음성 제어 스피커, 인간 중심 로봇 등의 실세계 인간-기계 인터페이스에 적용되고 있다. 하지만 대부분의 대화 시스템은 텍스트 기반으로 작동해 다중 모달리티 입력을 처리할 수 없다. 이 문제를 해결하기 위해서는 비디오와 같은 다중 모달리티 장면 인식을 통합한 대화 시스템이 필요하다. 기존의 비디오 기반 대화 시스템은 주로 시각, 이미지, 오디오 등의 다양한 자질을 합성하거나 사전 학습을 통해 이미지와 텍스트를 잘 정렬하는 데에만 집중하여 중요한 행동 단서와 소리 단서를 놓치고 있다는 한계가 존재한다. 본 논문은 이미지-텍스트 정렬의 사전학습 임베딩과 행동 단서, 소리 단서를 활용해 비디오 기반 대화 시스템을 개선한다. 제안한 모델은 텍스트와 이미지, 그리고 오디오 임베딩을 인코딩하고, 이를 바탕으로 관련 프레임과 행동 단서를 추출하여 발화를 생성하는 과정을 거친다. AVSD 데이터셋에서의 실험 결과, 제안한 모델이 기존의 모델보다 높은 성능을 보였으며, 대표적인 이미지-텍스트 자질들을 비디오 기반 대화시스템에서 비교 분석하였다.

  • PDF

신경망 이미지 부호화 모델과 초해상화 모델의 합동훈련 (Joint Training of Neural Image Compression and Super Resolution Model)

  • 조현동;김영웅;차준영;김동현;임성창;김휘용
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.1191-1194
    • /
    • 2022
  • 인터넷의 발전으로 수많은 이미지와 비디오를 손쉽게 이용할 수 있게 되었다. 이미지와 비디오 데이터의 양이 기하급수적으로 증가함에 따라, JPEG, HEVC, VVC 등 이미지와 비디오를 효율적으로 저장하기 위한 부호화 기술들이 등장했다. 최근에는 인공신경망을 활용한 학습 기반 모델이 발전함에 따라, 이를 활용한 이미지 및 비디오 압축 기술에 관한 연구가 빠르게 진행되고 있다. NNIC (Neural Network based Image Coding)는 이러한 학습 가능한 인공신경망 기반 이미지 부호화 기술을 의미한다. 본 논문에서는 NNIC 모델과 인공신경망 기반의 초해상화(Super Resolution) 모델을 합동훈련하여 기존 NNIC 모델보다 더 높은 성능을 보일 수 있는 방법을 제시한다. 먼저 NNIC 인코더(Encoder)에 이미지를 입력하기 전 다운 스케일링(Down Scaling)으로 쌍삼차보간법을 사용하여 이미지의 화소를 줄인 후 부호화(Encoding)한다. NNIC 디코더(Decoder)를 통해 부호화된 이미지를 복호화(Decoding)하고 업 스케일링으로 초해상화를 통해 복호화된 이미지를 원본 이미지로 복원한다. 이때 NNIC 모델과 초해상화 모델을 합동훈련한다. 결과적으로 낮은 비트량에서 더 높은 성능을 볼 수 있는 가능성을 보았다. 또한 합동훈련을 함으로써 전체 성능의 향상을 보아 학습 시간을 늘리고, 압축 잡음을 위한 초해상화 모델을 사용한다면 기존의 NNIC 보다 나은 성능을 보일 수 있는 가능성을 시사한다.

  • PDF

안드로이드 모바일 플랫폼에서 이미지 태그 추천을 위한 시스템 구현 (Implementation of a System for Image Tag Recommendation Using an Android Mobile Platform)

  • 엄원용;민현석;이시형;;노용만
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 추계학술발표대회
    • /
    • pp.609-612
    • /
    • 2010
  • 최근 스마트 폰을 이용한 사용자들이 생성하는 사진 데이터의 양이 급속히 증가하였다. 폭발적인 사진 데이터 양의 증가는 사용자가 원하는 사진에 대한 접근을 어렵게 하였다. 때문에 본 연구에서는 사진의 접근 및 관리의 효율을 높이기 위한 폭소노미를 통한 태그 추천 시스템을 안드로이드 모바일 플랫폼과 서버의 연계로 구현하였다. 구현된 애플리케이션은 25,000 장의 사진을 기반으로 하는 폭소노미를 통해 태그 추천을 하며, 태그 추천에 평균적으로 5.5 초의 시간이 걸렸다.

국내 뮤직비디오에 나타난 성역할 고정관념: 노래 장르와 성별 차이를 중심으로 (Gender Display in Music Videos: Gender Image and Sexuality by Genre and Gender)

  • 조수선
    • 한국콘텐츠학회논문지
    • /
    • 제14권7호
    • /
    • pp.58-69
    • /
    • 2014
  • 본 연구는 국내 뮤직비디오에 나타난 성역할 고정관념의 재현과 구성방식을 알아보기 위해 젠더 이미지 및 선정성 유형과 관련하여 내용분석을 시도했다. 이를 위해 2004년부터 2013년까지의 각 연도별로 뮤직비디오가 있는 30위까지의 노래 총 300개와 각 노래의 뮤직비디오 상에서 주요 역할을 하는 남녀 한명씩, 총 517명의 등장인물이 선정되었다. 등장인물에 대한 성역할 고정관념은 노래 장르와 성별로 구분하여 젠더 이미지의 유형과 선정성(신체노출, 성적표현)의 유무로 측정되었다. 젠더 이미지는 여성은 고전적 이미지가 가장 많이 나타났고 남성은 순정적 이미지가 가장 많이 나타났다. 여성의 이미지는 거의 변화가 없었고 남성 이미지의 경우 중성적 이미지는 가장 적었으나 증가하는 추세를 보여주었다. 고전적 이미지가 가장 많이 나타난 장르는 R&B와 발라드였고 순정적 이미지가 가장 많이 나타난 장르는 발라드, R&B와 록이었다. 선정성은 댄스곡과 힙합에서 더 많이 나타났다. 신체노출에 있어서 여성은 모든 부위에서 남성보다 더 높은 비율로 나타났다. 성적표현에 있어서 여성은 표정유혹이 남성은 성적자세가 상대적으로 많이 나타나 성역할 고정관념이 뚜렷하게 나타났다.

사진적 이미지의 뮤직비디오 연구 (Music Video Research of Photograph Image)

  • 강홍규
    • 한국콘텐츠학회논문지
    • /
    • 제16권2호
    • /
    • pp.251-256
    • /
    • 2016
  • 뮤직 비디오는 오디오 음반의 발매와 함께 그에 어울리는 영상을 추가하여 비디오 클립으로 제작되는 멀티미디어유형이다. 원래는 단순한 음반의 홍보수단으로 출발하였으나 음악전문 케이블 M-TV 방영의 주요 콘텐츠로 각광받게 되면서 대량 제작되기 시작하였다. 21세기는 스마트 폰 시대로 애니메이션, 실사 영화, 다큐멘터리를 비롯한 다방면의 영화 제작 기술을 사용하고 있다. 그 중에서 사진적 이미지의 뮤직비디오를 대표하는 사진작가 겸 뮤직비디오 감독인 안톤 코빈과 스테반 세나두이를 중심으로 그들의 작품 경향을 분석하고자 한다.