• 제목/요약/키워드: FPS

검색결과 520건 처리시간 0.021초

은닉마르코프모델과 DWT를 이용한 실시간 연기 검출 (Realtime Smoke Detection using Hidden Markov Model and DWT)

  • 김형오
    • 한국정보전자통신기술학회논문지
    • /
    • 제9권4호
    • /
    • pp.343-350
    • /
    • 2016
  • 본 논문은 DWT에너지 기반의 연기 검출 방법을 제안하였다. 일반적으로 연기는 형태가 명확하지 않고 주변 환경에 의하여 색상, 형태, 확산방향 등의 특징이 가변적이기 때문에 특정 정보만을 이용할 경우에는 오검출율이 높아진다. 따라서 본 논문에서는 환경변화에 강인한 전경 추출 방법을 이용하여 객체를 검출하고 추출된 객체의 색상, 형태, DWT 에너지 정보를 통합적으로 사용하여 연기를 판단한다. 제안된 방법은 평균 30fps의 처리속도를 가지므로 실시간 처리가 가능하고 화재 발생 시점으로부터 연기 감지까지의 평균 소요시간이 약 7초로 빠른 조기감지가 가능하며 낮은 오검출율을 나타내었다.

멀티채널 4K 초고해상도 영상 데이터의 실시간 획득 및 재생을 위한 FPGA 기반 하드웨어 플랫폼 개발 (Development of FPGA-based Hardware Platform for Real-time Capture & Playback of Multi-Channel 4K UHD Video Data)

  • 장성준;이상설;최정민;최병호;김제우
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 하계학술대회
    • /
    • pp.256-257
    • /
    • 2016
  • 지상파 UHD 방송의 시행 및 확대를 목표로 세계 각 국에서 정부 민간 차원의 대규모 투자 및 개발이 활발히 진행되고 있다. 기존 HD 방송 대비 데이터양이 막대하게 증가되기 때문에 실시간 고효율 처리를 위한 기술 개발 및 연구가 진행되고 있다. 특히 UHD 방송 제작 관련하여 UHD 카메라로부터 영상 및 음향을 실시간으로 획득하고 편집된 영상을 재생하기 위한 시스템 개발이 최근 주요 방송장비 업체 주도로 진행되고 있다. 이에 본 논문은 최대 2 채널의 4K UHD 영상 데이터를 동시에 실시간으로 획득 및 재생하기 위한 FPGA (Field Programmable Gate Array) 및 고속 입출력 인터페이스 기반의 하드웨어 플랫폼을 제안하였다. 또한 카메라/디스플레이와 편집 서버 간의 데이터의 고속 고효율 전송을 위한 로직을 HDL(Hardware Design Language) 설계하여 FPGA 내에 탑재하고 카메라/디스플레이/편집 서버와 통합하였다. 시험 결과 2 채널 4K 60fps 영상 데이터를 정상적으로 획득 및 재생하였다.

  • PDF

UHD 영상/음향 데이터의 실시간 획득/재생 시스템에서의 SDI 내장 음향 데이터의 추출 및 합성을 위한 하드웨어 플랫폼 개발 (Development of Hardware Platform for Extracting & Composing of SDI Embedded Audio Data at Real-time Capture/Playback System of UHD Video/Audio)

  • 이상설;장성준;최정민;김제우
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 하계학술대회
    • /
    • pp.258-259
    • /
    • 2016
  • 일반적으로 UHD 방송 편집 시스템에서 UHD 영상의 데이터양이 막대하기 때문에 실시간 전송을 위해 코덱과 함께 압축하여 편집 서버로 혹은 편집 서버로부터 스트림 형태로 전송한다. BT.1120 형태로 전송 송출된 SDI (Serial Digital Interface) 내장 음향 데이터는 영상과 달리 보조 데이터 영역에 다른 메타 데이터들과 함께 합성되어 전송 송출되기 때문에 추출 및 합성이 상대적으로 어렵다. 특히 재생을 위해서는 영상 코덱으로부터의 출력 영상과의 동기를 고려해야 하고 음향 데이터를 BT.1120 표준에 맞춰 보조 데이터 영역에 합성해야하기 때문에 개발에 어려움이 있다. 이에 본 논문은 UHD 영상/음향 데이터의 실시간 획득/재생 시스템에서의 SDI 내장 음향 데이터의 추출 및 합성을 위한 FPGA (Field Programmable Gate Array) 기반 하드웨어 플랫폼을 제안하였다. 또한, 이를 위한 음향 데이터 추출 로직과 합성 로직을 HDL(Hardware Design Language) 설계하여 FPGA 내에 탑재하고 카메라/디스플레이/편집 서버와 통합하였다. 시험 결과 4K 60fps 데이터에서 정상적으로 영상과 음향을 분리/획득 및 합성/재생하였다.

  • PDF

Edge Adaptive Color Interpolation for Ultra-Small HD-Grade CMOS Video Sensor in Camera Phones

  • Jang, Won-Woo;Kim, Joo-Hyun;Yang, Hoon-Gee;Lee, Gi-Dong;Kang, Bong-Soon
    • Journal of information and communication convergence engineering
    • /
    • 제8권1호
    • /
    • pp.51-58
    • /
    • 2010
  • This paper proposes an edge adaptive color interpolation for an ultra-small HD-grade complementary metal-oxide semiconductor (CMOS) video sensor in camera phones that can process 720-p/30-fps videos. Recently, proposed methods with great image quality perceptually reconstruct the green component and then estimate the red/blue component using the reconstructed green and neighbor red and blue pixels. However, these methods require the bulky memory line buffers in order to temporally store the reconstructed green components. The edge adaptive color interpolation method uses seven or nine patterns to calculate the six edge directions. At the same time, the threshold values are adaptively adjusted by the sum of the color values of the selected pixels. This method selects the suitable one among the patterns using two flowcharts proposed in this paper, and then interpolates the missing color values. For verification, we calculated the peak-signal-to-noise-ratio (PSNR) in the test images, which were processed by the proposed algorithm, and compared the calculated PSNR of the existing methods. The proposed color interpolation is also fabricated with the 0.18-${\mu}m$ CMOS flash memory process.

Sliding-FFT를 이용한 특정사운드 감지 알고리즘 (Sliding FFT based Algorithm for Detecting Specific Sound)

  • 지동주;조동현;전경구;성미영
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2008년도 한국컴퓨터종합학술대회논문집 Vol.35 No.1 (A)
    • /
    • pp.92-97
    • /
    • 2008
  • 적절한 촉각자극과 결합된 효과음은 실감성을 향상시킨다고 알려져 있다. 예를 들어, 영화나 게임의 총소리 효과음에 진동자극이 결합되면 훨씬 몰입감이 증진된다. 영화의 경우, 미디어 파일 내에 진동효과 관련한 정보를 부가하는 연구가 진행되기도 하였으나 대중화되지는 못했다. 게임의 경우, 진동을 유발시키도록 프로그래밍하는 방식을 사용하기도 한다. 하지만 진동을 고려하여 개발하는 게임은 전체 10% 미만일 정도로 일반화되어 있지 않다. 따라서 효과음향을 실시간으로 감지하여 진동을 발생시키는 시스템이 바람직하다. 본 논문에서는 이러한 시스템에서 특정 효과음을 실시간으로 감지하는 알고리즘을 제안한다. 이 알고리즘에서는 감지하고자 하는 효과음의 주파수 분포를 미리 분석해서 저장해 놓는다. 입력되는 효과음에 대해 실시간으로 주파수를 분석하여 저장된 값과의 차이를 비교하여 특정 효과음을 감지하게 된다. 실시간 주파수 분포에는 sliding fast Fourier transform (SFFT)를 사용한다. 이는 특정 효과음의 시작순간을 명확히 알 수 없기 때문이다. 제안 알고리즘을 First Person Shooting (FPS) 게임에 적용하여 성능분석을 하였다. 소음이 없을 경우, 감지율은 $80{\sim}90%$였으나, 소음 정도가 커질수록 감지율이 선형적으로 반비례하였다. 또한 감지에 걸리는 시간은 효과음 발생순간부터 0.45초 이내였다.

  • PDF

신.구형도마에서 1/1Turn, Stretched, Tucked 기술수행 시 운동역학적 분석 (Comparative Analysis of Biomechanical Factors in Performing Techniques of 1/1Turn, Stretched, and Tucked on the Old Vaulting Horse and the New Vaulting Table)

  • 김지태;허성규
    • 한국운동역학회지
    • /
    • 제16권4호
    • /
    • pp.135-145
    • /
    • 2006
  • The aim of this study was to find out the differences of biomechanical factors from touching down the vaulting board to landing when techniques of 1/1Turn, stretched, and Tucked were performed on the old vaulting horse and on the new vaulting table. Three national representative men gymnasts were sampled for this study. Three dimension motion analyses by means of six Sony PD-150 video cameras with the velocity of 60 fps were used. As a result of analyzing the kinetic data from two kind of vaulting table, the following conclusions were made. 1. There was not significant differences of angular momentum between the old and the new vaulting table in all three techniques except the phase of stepping on the vaulting board and contacting the vaulting horse in the Tucked technique. IN the two phases above, the angular momentum in the new vaulting table was greater than that of the old vaulting horse. 2. There were few significant differences between the old and the new vaulting horses in the horizontal and vertical reaction force according to techniques when stepping was performed. However, it appeared tendency that the horizontal and vertical reaction force in the new vaulting table was a little greater than that of the old vaulting horse when the 1/1Turn, the Stretched and the Tucked were performed.

In-Vehicle AR-HUD System to Provide Driving-Safety Information

  • Park, Hye Sun;Park, Min Woo;Won, Kwang Hee;Kim, Kyong-Ho;Jung, Soon Ki
    • ETRI Journal
    • /
    • 제35권6호
    • /
    • pp.1038-1047
    • /
    • 2013
  • Augmented reality (AR) is currently being applied actively to commercial products, and various types of intelligent AR systems combining both the Global Positioning System and computer-vision technologies are being developed and commercialized. This paper suggests an in-vehicle head-up display (HUD) system that is combined with AR technology. The proposed system recognizes driving-safety information and offers it to the driver. Unlike existing HUD systems, the system displays information registered to the driver's view and is developed for the robust recognition of obstacles under bad weather conditions. The system is composed of four modules: a ground obstacle detection module, an object decision module, an object recognition module, and a display module. The recognition ratio of the driving-safety information obtained by the proposed AR-HUD system is about 73%, and the system has a recognition speed of about 15 fps for both vehicles and pedestrians.

Design and Implementation of Depth Image Based Real-Time Human Detection

  • Lee, SangJun;Nguyen, Duc Dung;Jeon, Jae Wook
    • JSTS:Journal of Semiconductor Technology and Science
    • /
    • 제14권2호
    • /
    • pp.212-226
    • /
    • 2014
  • This paper presents the design and implementation of a pipelined architecture and a method for real-time human detection using depth image from a Time-of-Flight (ToF) camera. In the proposed method, we use Euclidean Distance Transform (EDT) in order to extract human body location, and we then use the 1D, 2D scanning window in order to extract human joint location. The EDT-based human extraction method is robust against noise. In addition, the 1D, 2D scanning window helps extracting human joint locations easily from a distance image. The proposed method is designed using Verilog HDL (Hardware Description Language) as the dedicated hardware architecture based on pipeline architecture. We implement the dedicated hardware architecture on a Xilinx Virtex6 LX750 Field Programmable Gate Arrays (FPGA). The FPGA implementation can run 80 MHz of maximum operating frequency and show over 60fps of processing performance in the QVGA ($320{\times}240$) resolution depth image.

An Image Signal Processor for Ultra Small HDGrade Video Sensor with 3A in Camera Phones

  • Jang, Won-Woo;Kim, Joo-Hyun;Han, Hag-Yong;Yang, Hoon-Gee;Kang, Bong-Soon
    • Journal of information and communication convergence engineering
    • /
    • 제7권4호
    • /
    • pp.507-515
    • /
    • 2009
  • In this paper, we propose an image signal processor (ISP) for an ultra small HD-grade video sensor with 3A (AWB, AE, and AF) in camera phones that can process 720P/30fps videos. In order to enhance the video quality of the systems, it is necessary to achieve the high performance of the 3A. The proposed AWB algorithm multiplies the adjusted coefficients of color gains to the captured data of white objects. The proposed AE method adopts the index step moving based on the difference between an averaged Y luminance and a target luminance, together with IIR filters with variable time responses. The proposed AF technique controls the focus curve to find the lens position that maximizes the integrated high frequency components in luminance values by using highpass filters. Finally, we compare the image quality captured from our system to the quality of a commercial HD camcorder in order to evaluate the performance of the proposed ISP. The proposed ISP system is also fabricated with 0.18um CMOS flash memory process.

Implementation of AR Remote Rendering Techniques for Real-time Volumetric 3D Video

  • Lee, Daehyeon;Lee, Munyong;Lee, Sang-ha;Lee, Jaehyun;Kwon, Soonchul
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제12권2호
    • /
    • pp.90-97
    • /
    • 2020
  • Recently, with the growth of mixed reality industrial infrastructure, relevant convergence research has been proposed. For real-time mixed reality services such as remote video conferencing, the research on real-time acquisition-process-transfer methods is required. This paper aims to implement an AR remote rendering method of volumetric 3D video data. We have proposed and implemented two modules; one, the parsing module of the volumetric 3D video to a game engine, and two, the server rendering module. The result of the experiment showed that the volumetric 3D video sequence data of about 15 MB was compressed by 6-7%. The remote module was streamed at 27 fps at a 1200 by 1200 resolution. The results of this paper are expected to be applied to an AR cloud service.