• Title/Summary/Keyword: 비디오 인코더

Search Result 52, Processing Time 0.019 seconds

실시간 비디오 서비스에 적당한 MPEG2 인코더 - Splitted Intra Refresh에 대한 연구(2) -

  • 장승기;서덕영
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1997.11a
    • /
    • pp.91-93
    • /
    • 1997
  • 본 논문에서는 실시간 비디오 서비스에 적합한 MPEG2 인코더-Splitted Intra-refresh[3]의 성능을 검증, 과시한다. 여기서는 M value에 따른 분석 및 양자화 인수에 따른 성능, 입력 영상의 종류에 따른 효과 등을 비교, 검토한다. 제안한 방법은 기존의 방법에 비해 비트율의 오차헤드는 적으면서도 비트율 평탄화 효과가 뛰어나며 셀손실율 역시 낮게 나타났다. 그러나 허용하는 지연이 짧을 경우에는(50msec 이하) 매우 효과적이나 지연이 클 경우(100msec 이상)에는 효과가 없다. 따라서 제안한 방법은 짧은 지연을 요구하는 실시간 VBR 비디오 데이터의 ATM 전송에 적합하다.

  • PDF

Hydrodynamic scene separation from video imagery of ocean wave using autoencoder (오토인코더를 이용한 파랑 비디오 영상에서의 수리동역학적 장면 분리 연구)

  • Kim, Taekyung;Kim, Jaeil;Kim, Jinah
    • Journal of the Korea Computer Graphics Society
    • /
    • v.25 no.4
    • /
    • pp.9-16
    • /
    • 2019
  • In this paper, we propose a hydrodynamic scene separation method for wave propagation from video imagery using autoencoder. In the coastal area, image analysis methods such as particle tracking and optical flow with video imagery are usually applied to measure ocean waves owing to some difficulties of direct wave observation using sensors. However, external factors such as ambient light and weather conditions considerably hamper accurate wave analysis in coastal video imagery. The proposed method extracts hydrodynamic scenes by separating only the wave motions through minimizing the effect of ambient light during wave propagation. We have visually confirmed that the separation of hydrodynamic scenes is reasonably well extracted from the ambient light and backgrounds in the two videos datasets acquired from real beach and wave flume experiments. In addition, the latent representation of the original video imagery obtained through the latent representation learning by the variational autoencoder was dominantly determined by ambient light and backgrounds, while the hydrodynamic scenes of wave propagation independently expressed well regardless of the external factors.

Implementation of CAVLC Encoder for the Image Compression in H.264/AVC (H.264/AVC용 영상압축을 위한 CAVLC 인코더 구현)

  • Jung Duck Young;Choi Dug Young;Jo Chang-Seok;Sonh Seung Il
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.9 no.7
    • /
    • pp.1485-1490
    • /
    • 2005
  • Variable length code is an integral component of many international standards on image and video compression currently. Context-based Adaptive Variable Length Coding(CAVLC) is adopted by the emerging JVT(also called H.264, and AVC in MPEG-4). In this paper, we design an architecture for CAVLC encoder, including a coeff_token encoder, level encoder, total_zeros encoder and run_before encoder. The designed CAVLC encoder can encode one syntax element in one clock cycle. As a result of implementation by Vertex-1000e of Xilinx, its operation frequency is 68MHz. Therefore, it is very suitable for video applications that require high throughput.

Fast block error detection method in video using a corner information and Adaboost recognition technology (코너 정보와 Adaboost 인식 기술을 이용한 비디오 내의 블록 오류 고속 검출 방법)

  • Ha, Myunghwan;Lee, Moonsik;Park, Sungchoon;Ahn, Kiok;Kim, Min-Gi
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2011.11a
    • /
    • pp.58-61
    • /
    • 2011
  • 방송 콘텐츠 제작에는 카메라, VCR, NLE, 인코더 등의 장비가 사용되고 있으며, VCR 헤더 불량, 테이프 노후화/보관불량, NLE 편집 오류, 인코더 장비 불량 등의 다양한 이유로 콘텐츠에 예기치 않은 비디오 및 오디오 오류가 발생할 수 있다. 이러한 문제점을 해결하기 위하여 콘텐츠에 포함된 다양한 비디오 및 오디오 오류를 자동으로 검사할 수 있는 자동 검사 시스템이 요구된다. 본 논문에서는 이러한 다양한 오류를 자동으로 검사할 수 있는 방법 중 특히 비디오 내에 종종 포함되는 블록 오류를 대상으로 하는 고속 오류 검출 방법을 설명한다. 제안한 방법은 비디오 내의 매 프레임의 코너 수를 계산하고, 시간 증가에 따른 코너 수의 변화량을 검사하여 블록 오류가 포함될 것으로 예상되는 후보 프레임을 찾는 1단계 과정과, 후보 프레임을 대상으로 Adaboost 인식 기술을 사용하여 학습한 분류기를 통해 최종 블록 오류가 포함된 프레임을 검출하는 2단계 과정으로 구성된다. 시스템 구현 실험 결과, 비디오 내에 포함된 블록 오류를 프레임 단위로 정확하게 고속 검출 하는 것이 가능함을 확인하였다. SD급의 경우 실시간 대비 2.3배속 가량의 고속 검사가 가능하고 HD의 경우에도 0.8배속 수준의 고속 검사가 가능하였다.

  • PDF

A Study on Memory Control Algorithm of a Compact Color QUAD System (칼라 4화면 분할기의 메모리제어 알고리듬에 관한 연구)

  • 손종형;정정화
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.25 no.1B
    • /
    • pp.193-200
    • /
    • 2000
  • 본 논문에서는 소형으로 설계된 칼라 4화면 분할기를 위한 메모리 제어 알고리듬을 제안한다. 4화면 분할기는 크게 비디오 디코더부, 메모리부, 비디오 인코더부, OSD (On Screen Display)부, MICOM부, 제어부로 구성되어 있다. 본 논문의 칼라 4화면 분할기는 비디오 디코더부와 비디오 인코더부를 각각 원칩을 이용하여 설계하였으며, 제어부를 FPGA를 사용하여 원칩으로 제작하였다. 화면 4분할을 위해서 메모리 읽기 신호를 실 시간으로 제어하여 비디오 시스템을 제작하였다. 사용된 메모리 제어알고리듬은 비디오신호제어 및 디지털 메모리를 이용하는 다른 시스템에 적용될 수 있다.

  • PDF

Efficient Video Signal Processing Method on Dual Processor of RISC and DSP (RISC와 DSP의 듀얼 프로세서에서의 효율적인 비디오 신호 처리 방법)

  • 김범호;마평수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2003.10c
    • /
    • pp.676-678
    • /
    • 2003
  • 최근에 2.5G나 3G 이동 단말 장치를 위한 프로세서로, 다양한 멀티미디어가 가미된 응용구현이 가능하도록 RISC 프로세서와 DSP를 포함하는 단일 칩 프로세서 기술이 등장하고 있다. 이에 따라 듀얼 프로세서 구조에서 비디오 인코딩/디코딩의 처리 속도를 향상시키기 위안 비디오의 인코더/디코더 구조를 제안한다. 기존의 연구에서는 비디오의 인코딩/디코딩의 전 과정을 DSP가 담당하도록 설계하였으나 많은 비트 연산이 필요한 부분에서는 RISC 칩보다 효율성이 낮게 된다. 이러한 문제점을 해결하기 위하여 본 논문에서는 비디오 신호 처리의 인코딩/디코딩을 구성하는 모듈들을 DSP와 RISC의 특성에 맞도록 분리해 수행시킴으로써 효율성을 높이고자 한다.

  • PDF

Deep Reinforcement Learning based Adaptive GOP Selection for HEVC/H.265 Encoder (심층적 강화학습 기반 적응적 GOP 선택을 통한 HEVC/H.265 인코더 제어)

  • Lee, Jung-Kyung;Kim, Nayoung;Kang, Je-Won
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2020.11a
    • /
    • pp.140-142
    • /
    • 2020
  • 본 논문에서는 심층적 강화학습 기반 GOP (Group of Picture) 크기를 선택하여 HEVC/H.265의 인코더를 제어하는 방법을 제안한다. 기존 방법에서는 현재 비디오 신호를 부호화 하는 과정에서 이미 부호화한 정보를 사용해야하는 부호화 의존성에 관한 문제가 있었다. 제안 방법은 강화학습 방식을 도입하여 이러한 문제를 극복하고 입력 비디오의 시간적 상관도에 따라 GOP의 크기를 적응적으로 선택하여 부호화 한다. 본 논문에서는 GOP 선택을 위한 강화학습 환경을 새롭게 정의하고 부호화 성능에 따른 보상을 부여하는 방식으로 학습을 수행한다. 제안된 적응적 GOP 선택에 따라 인코더 제어 시, 부호화 방법의 부호화 효율이 -6.07% BD-rate 향상된 실험 결과를 보이며 본 방법의 우수성을 입증한다.

  • PDF

Image captioning and video captioning using Transformer (Transformer를 사용한 이미지 캡셔닝 및 비디오 캡셔닝)

  • Gi-Duk Kim;Geun-Hoo Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.01a
    • /
    • pp.303-305
    • /
    • 2023
  • 본 논문에서는 트랜스포머를 사용한 이미지 캡셔닝 방법과 비디오 캡셔닝 방법을 제안한다. 트랜스포머의 입력으로 사전 학습된 이미지 클래스 분류모델을 거쳐 추출된 특징을 트랜스포머의 입력으로 넣고 인코더-디코더를 통해 이미지와 비디오의 캡션을 출력한다. 이미지 캡셔닝의 경우 한글 데이터 세트를 학습하여 한글 캡션을 출력하도록 학습하였으며 비디오 캡셔닝의 경우 MSVD 데이터 세트를 학습하여 학습 후 출력 캡션의 성능을 다른 비디오 캡셔닝 모델의 성능과 비교하였다. 비디오 캡셔닝에서 성능향상을 위해 트랜스포머의 디코더를 변형한 GPT-2를 사용하였을 때 BLEU-1 점수가 트랜스포머의 경우 0.62, GPT-2의 경우 0.80으로 성능이 향상됨을 확인하였다

  • PDF