• 제목/요약/키워드: Color Video

검색결과 697건 처리시간 0.03초

A Design of A Multistandard Digital Video Encoder using a Pipelined Architecture

  • Oh, Seung-Ho;Park, Han-Jun;Kwon, Sung-Woo;Lee, Moon-Key
    • Journal of Electrical Engineering and information Science
    • /
    • 제2권5호
    • /
    • pp.9-16
    • /
    • 1997
  • This paper describes the design of a multistandard video encoder. The proposed encoder accepts conventional NTSC/PAL video signals, It also processes he PAL-plus video signal which is now popular in Europe. The encoder consists of five major building functions which are letter-box converter, color space converter, digital filters, color modulator and timing generator. In order to support multistandard video signals, a programmable systolic architecture is adopted in designing various digital filters. Interpolation digital filters are also used to enhance signal-to-noise ratio of encoded video signals. The input to the encoder can be either YCbCr signal or RGB signal. The outputs re luminance(Y), chrominance(C), and composite video baseband(Y+C) signals. The architecture of the encoder is defined by using Matlab program and is modelled by using Veriflog-HDL language. The overall operation is verified by using various video signals, such as color bar patterns, ramp signals, and so on. The encoder contains 42K gates and is implemented by using 0.6um CMOS process.

  • PDF

A Method for Identification of Harmful Video Images Using a 2-Dimensional Projection Map

  • Kim, Chang-Geun;Kim, Soung-Gyun;Kim, Hyun-Ju
    • Journal of information and communication convergence engineering
    • /
    • 제11권1호
    • /
    • pp.62-68
    • /
    • 2013
  • This paper proposes a method for identification of harmful video images based on the degree of harmfulness in the video content. To extract harmful candidate frames from the video effectively, we used a video color extraction method applying a projection map. The procedure for identifying the harmful video has five steps, first, extract the I-frames from the video and map them onto projection map. Next, calculate the similarity and select the potentially harmful, then identify the harmful images by comparing the similarity measurement value. The method estimates similarity between the extracted frames and normative images using the critical value of the projection map. Based on our experimental test, we propose how the harmful candidate frames are extracted and compared with normative images. The various experimental data proved that the image identification method based on the 2-dimensional projection map is superior to using the color histogram technique in harmful image detection performance.

컬러공간 특성을 이용한 유해 동영상 식별방법에 관한 연구 (An Identification Method of Detrimental Video Images Using Color Space Features)

  • 김성균;김창근;정대율
    • 한국산학기술학회논문지
    • /
    • 제12권6호
    • /
    • pp.2807-2814
    • /
    • 2011
  • 본 논문은 컬러공간 특성을 이용하여 유해동영상을 식별하는 알고리즘을 개발하고, 실험을 통하여 알고리즘의 효율성을 검증한다. 유해동영상 식별 알고리즘은 2차원 투영맵에 기초하고 있다. 비디오 이미지의 컬러특성을 추출하는데 있어 2차원 투영맵은 후보 프레임을 효과적으로 추출하는데 적용되어진다. 본 연구에서는 제시된 유사도 계산 알고리즘을 이용하여 추출된 프레임과 기준 이미지 간의 유사도를 먼저 계산하고, 유사도 평가를 통하여 유해동영상 후보프레임을 식별해 내고 임계치를 적용하여 최종 판단을 내린다. 제시된 알고리즘을 적용한 실험결과, 유해동영상을 찾는데 있어 컬러히스토그램보다 본 연구에서 제안한 2차원 투영맵을 이용한 기법이 계산속도와 식별능력 면에서 더 우수함을 입증하였다.

칼라 및 모션 특징 기반 비디오 씬 분할 기법 (Video Scene Segmentation Technique based on Color and Motion Features)

  • 송창준;고한석;권용무
    • 방송공학회논문지
    • /
    • 제5권1호
    • /
    • pp.102-112
    • /
    • 2000
  • 기존의 비디오 구조화 기법은 주로 샷 또는 샷 그룹 레벨에서 이루어져 왔다. 그러나 이러한 샷 레벨 구조는 사용자에게 의미(semantics)를 충분히 전달할 수 없는 단점이 있다. 이런 단점을 극복하기 위해, 최근 샷 보다 상위 레벨 구조인 비디오 씬 분할에 관한 연구가 진행되고 있다. 본 논문에서는 이러한 샷 레벨 구조의 단점을 극복하기 위해서 칼라와 모션 특징을 기반으로 한 비디오 씬 분할 기법을 제안한다. 샷 내의 다양한 칼라 분포를 반영하기 위해서 각 샷을 sub-shot으로 재분할하고, 이를 이용해 대표 프레임을 추출한다. 샷 내의 모션 특징은 MPEG-1 비디오 내의 모션 벡터를 이용한다. 유사한 컨텐트를 가지고 있는 샷을 찾기 위해서 탐색 구간내의 모션 특성을 반영한 적응적 가중치를 칼라와 모션 특징에 적용한다. 실험 결과 비교를 통해 씬의 과다 분할이나 의미 반영 면에서 기존의 씬 분할 기법보다 우수함을 보였다. 제안된 기법은 비디오를 의미 있는 계층 구조로 분할해서, 사용자에게 의미를 반영하는 씬 단위로의 브라우징이나 검색을 가능케 한다.

  • PDF

디지털 컴퓨터에 의한 칼라 TV의 최적 설계방식 연구 (Computer-Aided Optimal Design of Color TV Circuits)

  • 김덕진;박인갑
    • 대한전자공학회논문지
    • /
    • 제15권6호
    • /
    • pp.52-65
    • /
    • 1978
  • 회로 해석 프로그램을 이용한 컴퓨터에 의한 칼라 TV 나로 설계를 시도하여 보았다. 칼라 TV의 colorplexed composite video signal은 여러가지 신호가 합쳐진 복합 신호이므로 칼라 TV 회로 설계를 하는 데에는 곤란한 점이 많다. 이 논문에서는 적절한 해석 프로그램을 선정하여 칼라 TV의 Y 영상회로, 색신호 증폭회로, AGC 회로 및 동기분리회로를 설계하는 방법을 기술하였다. 그리고 그 설계 방법이 타당함을 실험적으로 확인하였다.

  • PDF

비디오 복사방지를 위한 새로운 특징들의 성능평가 (Performance Evaluation of New Signatures for Video Copy Detection)

  • 현기호
    • 대한전자공학회논문지SP
    • /
    • 제40권1호
    • /
    • pp.96-102
    • /
    • 2003
  • 비디오 복사 방지(video copy detection)는 기존의 워터마킹 방법과 반대의 개념으로, 비디오 스트림에 독특한 패턴을 첨가하는 워터마킹에 비해, 비디오 복사 방지 기법은 비디오의 복사판을 검출하기 위해 패턴을 첨가하지 않고 비디오의 내용 기반 특징(content-based signature)을 비교한다. 기존의 일반적인 내용 기반 복사 방지방법은 이미지 정합을 사용하였으나, 본 논문은 비디오 복사방지를 위해 가능한 두 가지의 새로운 순서정합(sequence matching) 알고리즘을 제안하고, 기존의 방법 중 칼라 정합 방법과 성능을 비교 분석하였다. 모션, 명암도와 칼라 기반 특징을 복사 방지 관점에서 비교하고, 영화클립에 대해 실험한 결과를 제시한다.

Color T.V Set를 이용한 삼차원 영상장치의 개발 (Development of Three Dimensional Vision Using a Color T.V. Set)

  • 김철중;정상수
    • 비파괴검사학회지
    • /
    • 제5권1호
    • /
    • pp.3-8
    • /
    • 1985
  • A three dimensional vision is obtained by stereoscopic view using a modified commercial TV set and matching color filter glasses. Two video signals from two CCTV cameras are connected to the RGB (red, green, blue) inputs of picture tube selecting two different colors for two video signals. A synchronizing signal drives a CCTV camera and the color TV set. On the other hand, a delayed synchronizing signal drives the other CCTV camera shifting its image on display. This shift is used in correcting image distortion.

  • PDF

색상과 움직임 정보를 이용한 내용기반 동영상 검색 시스템 (Content-Based Video Retrieval System Using Color and Motion Features)

  • 김소희;김형준;정연구;김회율
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2001년도 하계종합학술대회 논문집(3)
    • /
    • pp.133-136
    • /
    • 2001
  • Numerous challenges have been made to retrieve video using the contents. Recently MPEG-7 had set up a set of visual descriptors for such purpose of searching and retrieving multimedia data. Among them, color and motion descriptors are employed to develop a content-based video retrieval system to search for videos that have similar characteristics in terms of color and motion features of the video sequence. In this paper, the performance of the proposed system is analyzed and evaluated. Experimental results indicate that the processing time required for a retrieval using MPEG-7 descriptors is relatively short at the expense of the retrieval accuracy.

  • PDF

로봇의 시각시스템을 위한 동영상에서 칼라정보를 이용한 얼굴 추적 (Robot vision system for face tracking using color information from video images)

  • 정행섭;이주신
    • 한국항행학회논문지
    • /
    • 제14권4호
    • /
    • pp.553-561
    • /
    • 2010
  • 본 논문에서는 로봇의 시각시스템에 효과적으로 적용할 수 있는 얼굴 추적 방법을 제안하였다. 제안한 알고리즘은 동영상의 움직임 영역을 검출한 후 얼굴 영역을 추적한다. 동영상의 움직임 검출은 연속되는 2개의 프레임을 사용하여 차영상을 구한 후, 잡음을 제거하기 위한 방법으로 메디안 필터와 침식 및 팽창연산을 사용하여 움직임 영역을 검출한다. 움직임 영역에서 피부색을 추출하기 위하여 표본영상의 칼라 정보를 이용하였다. 칼라정보의 MIN-MAX값을 퍼지화 데이터로 멤버십 함수를 생성한 후, 유사도를 평가하여 피부색 영역과 배경영역을 분리하였다. 얼굴 후보영역에 대하여 CMY 칼라 공간 C 채널에서 눈을 검출하고, YIQ 칼라 공간 Q 채널에서 입을 검출하였다. 지식기반으로 검출된 눈과 입의 특징을 찾아가며 얼굴영역을 추적하였다. 실험영상으로는 10명 각각에 대하여 150프레임의 동영상 총 1,500프레임을 입력받아 실험한 결과, 1,435프레임의 영상에 대하여 움직임 영역이 검출되어 95.7%의 프레임 검출율을 보였으며, 1,401개에 대한 얼굴을 추적 97.6%의 우수한 얼굴 추적결과를 나타내었다.

Fire Detection using Color and Motion Models

  • Lee, Dae-Hyun;Lee, Sang Hwa;Byun, Taeuk;Cho, Nam Ik
    • IEIE Transactions on Smart Processing and Computing
    • /
    • 제6권4호
    • /
    • pp.237-245
    • /
    • 2017
  • This paper presents a fire detection algorithm using color and motion models from video sequences. The proposed method detects change in color and motion of overall regions for detecting fire, and thus, it can be implemented in both fixed and pan/tilt/zoom (PTZ) cameras. The proposed algorithm consists of three parts. The first part exploits color models of flames and smoke. The candidate regions in the video frames are extracted with the hue-saturation-value (HSV) color model. The second part models the motion information of flames and smoke. Optical flow in the fire candidate region is estimated, and the spatial-temporal distribution of optical flow vectors is analyzed. The final part accumulates the probability of fire in successive video frames, which reduces false-positive errors when fire-like color objects appear. Experimental results from 100 fire videos are shown, where various types of smoke and flames appear in indoor and outdoor environments. According to the experiments and the comparison, the proposed fire detection algorithm works well in various situations, and outperforms the conventional algorithms.