• 제목/요약/키워드: YUV

검색결과 60건 처리시간 0.026초

u-CCTV 화재 감시 시스템 개발을 위한 시스템 및 화재 판별 기술 연구 (A Study on u-CCTV Fire Prevention System Development of System and Fire Judgement)

  • 김영혁;임일권;이계귀;박소아;김명진;이재광
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2010년도 춘계학술대회
    • /
    • pp.463-466
    • /
    • 2010
  • 본 논문에서는 CCTV를 기반으로 한 화재 감시 시스템 개발을 위하여 기존 센서를 기반으로 하는 화재 탐지 시스템과 영상을 기반으로 하는 시스템들의 장단점을 분석하고 국가적으로 지원하고 있는 U-City, U-Home, U-Campus 등 확산되는 유비쿼터스 환경에 적합한 화재 감시 시스템 모델과 화재를 판별하기위한 기술을 제안한다. 본 연구를 위해 영상을 촬영할 카메라로는 Microsoft LifeCam VX-1000을 사용하였으며, 영상을 촬영하는 코덱으로는 H.264를 사용하였다. 카메라로부터 촬영된 영상 데이터를 가공하여 서버에 전달하는 클라이언트는 Linux OS를 사용하는 ARM9 S3C2440 보드로 제작하였다. 클라이언트와 서버의 영상 데이터 송/수신은 기본적으로 1:1 방식으로 되어있다. 그리하여 카메라의 데이터를 다중으로 수신하기 위한 멀티캐스트 1:N이 가능하게 명세하여, 화재 감시를 위한 다각적 영상 수신 시스템을 설계하였다. 영상 데이터는 RGB 형식을 YUV로 변환하여 전송하며, 화재를 감지하기위한 모션 추출을 위해 Y값을 이용한다. 화재 판별은 붉은 색상을 감지하고 Y값의 움직임을 계산해 화재시 지속적으로 타오르는 불꽃의 모션을 감지하여 판단하는 판별법을 적용한 시스템을 최종적으로 제안한다.

  • PDF

Real-Time Two Hands Tracking System

  • Liu, Nianjun;Lovell, Brian C.
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2002년도 ITC-CSCC -3
    • /
    • pp.1491-1494
    • /
    • 2002
  • The paper introduces a novel system of two hands real-time tracking based on the unrestricted hand skin segmentation by multi color systems. After corer-based segmentation and pre-processing operation, a label set of regions is created to locate the two hands automatically. By the normalization, template matching is used to find out the left or right hand. An improved fast self-adaptive tracking algorithm is applied and Canny filter is used for hand detection.

  • PDF

실시간 비전 시스템을 이용한 운전자 신체적 상태 추정 (Estimation of a Driver's Physical Condition Using Real-time Vision System)

  • 김종일;안현식;정구민;문찬우
    • 한국인터넷방송통신학회논문지
    • /
    • 제9권5호
    • /
    • pp.213-224
    • /
    • 2009
  • 현재 교통사고의 원인은 차량 결함보다 운전자의 과실에 의한 것이 더 높은 사고 원인으로 나타나고 있다. 이를 해결하기 위하여 운전자의 신체적 상태를 관찰, 분석하여 현재 상태를 추정 및 경고해 줄 수 있는 시스템이 필요하다. 이러한 운전자 상태 추정 시스템을 개발하기 위하여, 본 논문에서는 실시간 비전 시스템을 사용하여 운전자 두 눈동자의 중심점과 크기, 입의 양 끝 모서리 점을 추적하여 얻어진 정보들을 기본적으로 이용한다. 움직임의 추적을 위해 얼굴인식이 필요하며, 인식은 YUV 컬러 공간에서 눈과 입, 얼굴의 색상 정보를 통계학적 방법에 기초하여 설계하고, 얼굴의 기하학적 모델에 의해 이루어진다. 이 시스템을 이용함으로써 운전자의 움직임에 의한 모든 회전 방향을 구분하고, 눈과 입이 차단되는 현상을 차단 모델에 의해 검출할 수 있다. 또한 눈이 감기거나 떠진 상태를 검출하여, 눈의 3차원 시선을 복원한다. 부주의한 운전과 졸음운전을 각각 정의하고 눈동자의 크기 변화 등에 의해 구분하며, 내장형 PC를 기반으로 카메라 시스템, 영상 데이터 처리 장치 및 상태 추정 알고리즘을 구현한 실험 시스템을 구현하여 제안된 신체 상태 추정 방법의 타당성과 성능을 검토한다.

  • PDF

야간도로 시인성에 대한 공간적 평가를 위한 자료관리체계 연구 (A Study on Data Management Systems for Spatial Assessments of Road Visibilities at Night)

  • 우희숙;권광석;김병국;윤천주;김영록
    • 대한공간정보학회지
    • /
    • 제22권4호
    • /
    • pp.107-115
    • /
    • 2014
  • 야간도로 노면 밝기는 운전자가 도로 상 장애물을 인지하고 안전하게 운행하는데 있어 매우 중요한 요소이다. 본 연구에서는 정량적인 야간도로 시인성을 평가에 필요한 야간 도로 노면 영상정보 수집 및 처리용 모바일 체계를 제시하였다. 야간 도로 노면에서 수집되는 영상정보를 효율적으로 변환하고 야간도로 시인성에 대한 공간적인 분포를 파악할 수 있는 선형자료를 구축하였다. 이를 위해 저전력 컴퓨팅기술, 개방형 영상처리 기술, GPU 기반 가속 기술 및 도큐멘트데이터베이스 기술 등을 적용하였고 RGB영상으로부터 YUV색상체계로 변환하고 밝기에 해당하는 요소만 추출하여 공간정보와 통합하였다. 그 결과 고성능 안드로이드 단말기를 이용하여 도로밝기 자료를 취득하고 제안한 프로토타입으로 야간도로 시인성에 대한 공간적인 평가를 위한 자료 구축의 공간적 분포를 파악할 수 있었다.

웨이블릿 변환 영역에서 부대역 에너지 변화율의 비를 이용한 연기 감지 (Smoke Detection Using the Ratio of Variation Rate of Subband Energy in Wavelet Transform Domain)

  • 김정한;배성호
    • 한국멀티미디어학회논문지
    • /
    • 제17권3호
    • /
    • pp.287-293
    • /
    • 2014
  • 인명과 물질적 손실을 줄이기 위해서는 화재의 조기 감지는 매우 중요하다. 비디오 기반의 연기 감지방법은 야외에서 연기 감지의 어려움이 있는 기존의 센서 기반의 연기 감지 방법의 단점을 극복할 수 있다. 본 논문에서는 비디오 기반의 새로운 연기 감지 방법을 제안한다. 제안한 방법은 웨이블릿 변환 영역에서 각 부대역의 에너지의 비율을 이용하여 연기 영역을 검출한다. 잘못된 연기 검출을 감소시키기 위하여 YUV 칼라 공간에서 움직임, 색도의 감소, 블록의 명도를 이용하여 후보 연기 블록을 검출한다. 최종적으로, 웨이블릿 변환 영역에서 후보 연기 블록에 대한 부대역 에너지의 시간적 변화를 이용하여 연기 블록을 결정한다. 실험을 통하여 제안한 방법이 기존의 웨이블릿을 이용한 연기 감지 방법보다 연기의 검출율과 오검출율이 현저히 향상되는 것을 확인하였다.

H.264/AVC 디코더를 위한 Embedded SoC 설계 (Embedded SoC Design for H.264/AVC Decoder)

  • 김진욱;박태근
    • 대한전자공학회논문지SD
    • /
    • 제45권9호
    • /
    • pp.71-78
    • /
    • 2008
  • 본 논문에서는 H.264AVC baseline 디코더를 ARM926EJ-S 코어를 탑재한 FPGA(XC4VLX60)기반의 타겟 보드와 임베디드용 Linux Kernel 2.4.26의 개발환경에서 SW/HW 분할을 통해 설계 및 구현하였다. 하드웨어 가속기로는 움직임 보상 모듈 디블록킹 필터 모듈, YUV2RGB 변환 모듈을 사용하였으며 AMBA 버스 프로토콜을 통하여 소프트웨어와 함께 동작한다. 참조 소프트웨어(JM 11.0)를 OS(Linux)상에서 하드웨어 가속 모듈을 추가하고 메모리 접근 등을 최소화함으로써 성능을 향상시키고자 노력하였다. 설계된 하드웨어 IP와 시스템은 여러 단계로 검증하였으며 시스템의 복호화 속도 개선을 도모하였다. QCIF (176$\times$144) 영상을 24MHz의 클록 주파수의 타겟 보드상에서 약 2 frames/sec의 결과를 얻었으며 타겟 보드의 주파수를 증가시키고 FPGA영역의 IP를 ASIC으로 구현하면 더 좋은 성능을 기대할 수 있다.

H.264/AVC 복호기를 위한 효율적인 인트라 예측기 하드웨어 구조 (The Hardware Architecture of Efficient Intra Predictor for H.264/AVC Decoder)

  • 김옥;류광기
    • 대한전자공학회논문지SD
    • /
    • 제47권5호
    • /
    • pp.24-30
    • /
    • 2010
  • 본 논문에서는 H.264/AVC에서 압축 성능을 높이기 위해 사용된 기법중 하나인 인트라 예측에 대해 기술하고 인트라 예측 모드 연산을 효율적으로 수행하기 위한 인트라 예측기의 구조를 제안한다. 제안하는 인트라 예측기는 공통 연산기, 전처리 연산기, 인트라 예측 컨트롤러, 내부 메모리, 레지스터 컨트롤러로 구성된다. 공통 연산기와 전처리 연산기를 사용하여 연산량을 줄이고, 내부 메모리와 레지스터를 사용하여 외부 메모리와의 접근을 최소화 하였다. 제안한 인트라 예측기는 Verilog-HDL을 이용하여 설계하였으며, YUV 파일을 부호화 한 테스트 벡터를 이용하여 검증하였다. 설계된 인트라 예측기는 주로 핸드폰과 같은 휴대용 단말기에 사용하는 베이스라인 프로파일에 속하며 영상크기는 $176{\times}144$ 픽셀이다. 제안한 인트라 예측기의 예측 수행 사이클의 비교 분석 결과 기존에 비해 평균 약 60%의 향상된 결과를 얻었다.

컨볼루셔널 신경망과 케스케이드 안면 특징점 검출기를 이용한 얼굴의 특징점 분류 (Facial Point Classifier using Convolution Neural Network and Cascade Facial Point Detector)

  • 유제훈;고광은;심귀보
    • 제어로봇시스템학회논문지
    • /
    • 제22권3호
    • /
    • pp.241-246
    • /
    • 2016
  • Nowadays many people have an interest in facial expression and the behavior of people. These are human-robot interaction (HRI) researchers utilize digital image processing, pattern recognition and machine learning for their studies. Facial feature point detector algorithms are very important for face recognition, gaze tracking, expression, and emotion recognition. In this paper, a cascade facial feature point detector is used for finding facial feature points such as the eyes, nose and mouth. However, the detector has difficulty extracting the feature points from several images, because images have different conditions such as size, color, brightness, etc. Therefore, in this paper, we propose an algorithm using a modified cascade facial feature point detector using a convolutional neural network. The structure of the convolution neural network is based on LeNet-5 of Yann LeCun. For input data of the convolutional neural network, outputs from a cascade facial feature point detector that have color and gray images were used. The images were resized to $32{\times}32$. In addition, the gray images were made into the YUV format. The gray and color images are the basis for the convolution neural network. Then, we classified about 1,200 testing images that show subjects. This research found that the proposed method is more accurate than a cascade facial feature point detector, because the algorithm provides modified results from the cascade facial feature point detector.

H.264/AVC 기반의 스테레오 영상 디스플레이 시스템 (Stereoscopic Video Display System Based on H.264/AVC)

  • 김태준;김지홍;윤정환;배병규;김동욱;유지상
    • 한국통신학회논문지
    • /
    • 제33권6C호
    • /
    • pp.450-458
    • /
    • 2008
  • 본 논문에서는 양안시차를 이용한 스테레오 영상의 부호화 기법을 H.264/AVC 기반으로 스테레오 영상을 실시간으로 전송하기 위한 효과적인 시스템을 제안한다. OpenCV를 이용하여 스테레오 웹캠으로부터 영상을 획득하고, 전처리 과정으로 입력 시스템을 통해 획득한 스테레오 영상을 YUV 4:2:0 파일 포맷으로 변환한다. 변환된 파일은 스테레오 부호화기로 입력되고 제안된 예측구조에 의해 부호화기의 복잡도를 감소시킴으로써 초당 30프레임 이상의 부호화 속도로 부호화 된다. 부호화된 비트스트림 파일은 복호화기에 입력되어 좌, 우 스테레오 영상으로 재 생성된다. 재 생성된 스테레오 영상은 입체영상으로 합성되어 3D 디스플레이 장치를 통해 사용자에게 보여지게 된다. 제안된 시스템은 기존의 스테레오 코덱을 사용했을 때 보다 최소 1.5dB에서 최대 3dB의 압축효율이 뛰어남을 본 실험을 통하여 검증 및 확인하였다. 본 연구는 저 대역폭, 저 전력의 실시간 전송을 위한 모바일환경에 응용이 가능할 것으로 기대된다.

컬러정보와 오류역전파 알고리즘을 이용한 교통표지판 인식 (Traffic Sign Recognition Using Color Information and Error Back Propagation Algorithm)

  • 방걸원;강대욱;조완현
    • 정보처리학회논문지D
    • /
    • 제14D권7호
    • /
    • pp.809-818
    • /
    • 2007
  • 본 논문에서는 컬러정보를 이용하여 교통표지판 영역을 추출하고, 추출된 이미지의 인식을 위해 오류 역전파 학습알고리즘을 적용한 교통표지판 인식시스템을 제안한다. 제안된 방법은 교통표지판의 컬러를 분석하여 영상에서 교통표지판의 후보영역을 추출한다. 후보영역을 추출하는 방법은 RGB 컬러 공간으로부터 YUV, YIQ, CMYK 컬러 공간이 가지는 특성을 이용한다. 형태처리는 교통표지판의 기하학적 특성을 이용하여 영역을 분할하고, 교통표지판 인식은 학습이 가능한 오류역전파 학습알고리즘을 이용하여 인식한다. 실험결과 제안된 시스템은 다양한 크기의 입력영상과 조명의 차이에 영향을 받지 않고 후보영역 추출과 인식에 우수한 성능이 입증되었다.