• Title/Summary/Keyword: 실시간 영상 저장

Search Result 266, Processing Time 0.03 seconds

OBD2 Vehicle Operation Information Black Box System for Accident Preparedness (사고 발생에 대비한 OBD2 차량 운행 정보 블랙박스)

  • Jun-Young Kim;Jun-Hee Kim;Hyung-Seong Oh;Jae-Hyung Choi;Kyung-Ho Ko;Myung-Chun Ryoo
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2024.01a
    • /
    • pp.279-280
    • /
    • 2024
  • 본 논문에서는 주행 중 차량의 상태를 실시간으로 모니터링함과 동시에, 페달 조작 여부를 확인할 수 있는 영상 촬영 및 저장 시스템을 제안한다. 개발된 차량 운행 정보 블랙박스는 블루투스 OBD2 커넥터를 통해 차량의 PID 값을 식별하고 수집한다. 이 데이터는 비동기 방식으로 처리되며, 라즈베리파이와 7인치 터치 디스플레이를 이용해 운전자에게 한눈에 보일 수 있는 형태로 정보를 제공한다. 특히, 멀티스레드를 활용하여 ECU 정보를 페달 조작 여부 영상에 표시하는 동시에 녹화하고, CSV 파일로 SD 카드에 실시간으로 저장한다. 수집된 차량 데이터와 영상 데이터는 예기치 못한 사고 발생 시 운전자의 과실 비율 측정과 대처행동을 입증하는 데 중요한 역할을 할 것으로 기대되며, 차량 정비 시 참고 자료로 활용될 수 있다.

  • PDF

Collision Sound Representation for Realtime Synthesis (실시간 합성을 위한 가상 충돌음 표현)

  • Yi, Jeong-Seon;Nam, Yang-Hee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2006.11a
    • /
    • pp.257-260
    • /
    • 2006
  • 가상현실에서의 사운드는 충돌이나 접촉 등의 인터랙션을 전달함에 있어서 그래픽 영상보다도 효과적인 경우가 많다. 그러나, 기존 연구에서는 발생 가능한 충돌음을 임의적으로 녹음한 후 실시간에서 단순 재생하는 방법으로 재현하고 있는 것이 대부분이다. 그러나, 가상환경은 미리 주어진 시나리오에 의해 플레이되는 것이 아니기 때문에 실시간으로 주어지는 인터랙션에 대해 적합한 충돌음을 실시간에 합성해야 한다. 본 논문에서는 녹음된 음의 단순재생을 피하고 실시간 가상환경의 충돌음 발생 요인을 바탕으로 유사한 물질의 충돌음을 하나의 대표 모델로서 표현하는 방법을 제안한다. 즉, 모든 샘플들을 저장하는 대신 하나의 고유음과 필요한 속성 표현을 제공하는 것이다. 이러한 고유음 표현은 실시간에 속성 요소의 변형에 의해 다양한 상황에 적응적인 음을 생성하게 된다. 이러한 충돌음 표현의 생성과 타당성을 파악하기 위해 충돌음을 방생시키는 물질들에 대한 진동음의 스펙트로그램 분석을 행하였고, 유사 물질별로 하나의 고유음 표현을 생성하여 해당 물질의 실제 충돌음과 비교함으로써 주요 주파수 패턴의 유사함을 확인하였다.

  • PDF

Large scale interactive display system for touch interaction in stereopsis (입체 영상에서 터치 인터랙션을 위한 대규모 인터랙티브 디스플레이 시스템)

  • Kang, Maeng-Kwan;Kim, Jung-Hoon;Jo, Sung-Hyun;Joo, Woo-Suck;Yoon, Tae-Soo;Lee, Dong-Hoon
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2010.10a
    • /
    • pp.252-255
    • /
    • 2010
  • In this thesis, it suggests large scale interactive display system which is able to various touch interaction and bases on infrared LED BAR and using 3D. Interaction layer formed on space from screen which is able to feel 3D using suggested IR LED BAR. It gets the image in real time what is composed in interaction section using infrared camera with band pass filter. The image finds touch interaction coordinate through image processing module and saves as packet. It send packet to server through network data communication. It analyze packet by metaphor analysis module and save as metaphor event and send it to contents. On contents, it practices to metaphor event result in real time so it makes use touch interaction in stereopsis. According to this process, it does not need touch the screen at firsthand but it is possible system and touch interaction so touch interaction is possible while use 3D.

  • PDF

An Autonomous Video Capturing System by Vehicle Robot (이동형 로봇을 활용한 새로운 추적 촬영시스템 제안)

  • Kim, Young-Ae;Cho, Sung-Man;Jeon, Ji-Hye;Park, Goo-Man
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.335-337
    • /
    • 2016
  • 리얼리티 예능 TV 프로그램이나 다큐멘터리, 스포츠 중계, 인터넷 개인 방송 등 다양한 방송 프로그램에서 기존의 촬영시스템과 다른 새로운 기기와 방법을 도입하고 있다. 특히 드론을 활용한 항공 촬영시스템으로 사람이나 지미짚 카메라로 촬영이 불가능했던 높은 구도에서 촬영하고, 액션 캠을 활용한 촬영시스템으로 사용자가 직접 휴대하거나 신체에 부착하여 역동적인 영상을 촬영하고 있다. 하지만 현재까지 개발 및 도입되고 있는 시스템들은 실내 촬영에 어려움과 영상 가장자리 왜곡 발생, 배터리 수명 문제로 장시간 촬영에 한계점이 있다. 이에 본 논문에서는 실시간으로 사용자를 검출하고 추적하면서 주변 환경과 사용자의 모습을 촬영하는 이동형 촬영 로봇 시스템을 제안하였다. 사용자의 제어 없이 실시간 촬영 및 저장 서비스를 제공하기 위해 로봇 스스로 카메라 영상을 통해 사용자를 검출, 위치 정보를 획득하고 이동하여 추적함으로써 근거리 영역을 유지한 상태로 새로운 기법과 구도에서 촬영하는 시스템을 구성하였다.

  • PDF

Watermark Implementation for Real-Time H.264/AVC Encoding (실시간 H.264/AVC 인코딩용 워터마크 구현)

  • Hong, You-Pyo;Won, Chee-Sun
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.34 no.7C
    • /
    • pp.649-653
    • /
    • 2009
  • Although digital image has many advantages including digital image compression and various image processing techniques, the it has the weakness of easy manipulation which led to the development of many digital watermarking techniques. There are various types of digital watermarking algorithms for spatial and spectral domains. This paper presents a watermarking implementation for H.264/AVC codec which is adapted for many multimedia standards.

A Real-time system for dataset generation based on Depp Learning (딥러닝 기반의 실시간 데이터셋 생성 시스템)

  • Jang, Hohyeok;Tak, Hyunjun;Lee, Sohee;Lee, Young-Sup
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.10a
    • /
    • pp.683-685
    • /
    • 2018
  • 본 논문은 도로에서의 객체탐지를 위한 딥러닝(deep learning) 데이터셋을 자동으로 생성, 분류하는 시스템을 제안한다. 시스템의 작동 과정은 크게 두 가지이다. 먼저 딥러닝을 활용하여 촬영된 영상에 존재하는 객체를 검출한다. 이때, 실시간으로 하는 방법과 레코딩된 영상을 다루는 방법 두 가지가 있다. 다음으로 검출된 객체 중 예측 값(scroe)가 임계치 이상인 객체의 위치와 종류를 파일로 저장한다. 이 시스템은 차량 전방 카메라 위치에 장착된 웹캠을 이용해 영상을 취득하고 임베디드 보드인 TX2 board를 이용해 데이터 셋을 생성한다. 매트랩의 image labeler app과 비교를 통해 보다 적은 시간비용으로 데이터셋을 생성해 냄을 확인하였다.

Design of Low-Energy Consumption Event-based DIY Surveillance Camera System (이벤트 감지 기반의 저에너지 DIY 감시카메라 설계)

  • Kang, Chul-Ho;Yi, Kang
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2015.04a
    • /
    • pp.64-66
    • /
    • 2015
  • 본 논문에서는 감시카메라의 에너지 효율성과 영상 감시의 효율성을 높이기 위해서 이벤트 기반으로 작동하는 저에너지 DIY (Do-It-Yourself)감시 카메라 시스템을 제안한다. 본 논문에서 제안하는 감시 카메라는 이벤트 감지 모드에서는 저전력 경량압축 모드로 작동하다가 움직임이 검출된 경우에만 고압축/고해상도 모드로 자동 전환되어 이벤트 발생시점 이후뿐만 아니라 이벤트 발생 3초 전의 영상까지 압축하여 무선으로 서버로 전송한다. 또한, 서버에 저장된 영상은 사후에 추출할 수 있을 뿐 아니라 실시간으로 원격 단말로 스트리밍이 가능하여 원격지에서 이벤트 발생을 보고 받고 필요시에 실시간으로 모니터링 할 수 있도록 시스템을 구성하여 실용성을 강화하였다.

An Intelligent Surveillance System using Fuzzy Contrast and HOG Method (퍼지 콘트라스트와 HOG 기법을 이용한 지능형 감시 시스템)

  • Kim, Kwang-Baek
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.16 no.6
    • /
    • pp.1148-1152
    • /
    • 2012
  • In this paper, we propose an intelligent surveillance system using fuzzy contrast and HOG method. This surveillance system is mainly for the intruder detection. In order to enhance the brightness difference, we apply fuzzy contrast and also apply subtraction method to before/after the surveillance. Then the system identifies the intrusion when the difference of histogram between before/after surveillance is sufficiently large. If the incident happens, the camera stops automatically and the analysis of the screen is performed with fuzzy binarization and Blob method. The intruder is detected and tracked in real time by HOG method and linear SVM. The proposed system is implemented and tested in real world environment and showed acceptable performance in both detection rate and tracking success rate.

Framework Implementation of Image-Based Indoor Localization System Using Parallel Distributed Computing (병렬 분산 처리를 이용한 영상 기반 실내 위치인식 시스템의 프레임워크 구현)

  • Kwon, Beom;Jeon, Donghyun;Kim, Jongyoo;Kim, Junghwan;Kim, Doyoung;Song, Hyewon;Lee, Sanghoon
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.41 no.11
    • /
    • pp.1490-1501
    • /
    • 2016
  • In this paper, we propose an image-based indoor localization system using parallel distributed computing. In order to reduce computation time for indoor localization, an scale invariant feature transform (SIFT) algorithm is performed in parallel by using Apache Spark. Toward this goal, we propose a novel image processing interface of Apache Spark. The experimental results show that the speed of the proposed system is about 3.6 times better than that of the conventional system.

Audio and Image based Emotion Recognition Framework on Real-time Video Streaming (실시간 동영상 스트리밍 환경에서 오디오 및 영상기반 감정인식 프레임워크)

  • Bang, Jaehun;Lim, Ho Jun;Lee, Sungyoung
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2017.04a
    • /
    • pp.1108-1111
    • /
    • 2017
  • 최근 감정인식 기술은 다양한 IoT 센서 디바이스의 등장으로 단일 소스기반의 감정인식 기술 연구에서 멀티모달 센서기반 감정인식 연구로 변화하고 있으며, 특히 오디오와 영상을 이용한 감정인식 기술의 연구가 활발하게 진행되는 있다. 기존의 오디오 및 영상기반 감정신 연구는 두 개의 센서 테이터를 동시에 입력 저장한 오픈 데이터베이스를 활용하여 다른 이벤트 처리 없이 각각의 데이터에서 특징을 추출하고 하나의 분류기를 통해 감정을 인식한다. 이러한 기법은 사람이 말하지 않는 구간, 얼굴이 보이지 않는 구간의 이벤트 정보처리에 대한 대처가 떨어지고 두 개의 정보를 종합하여 하나의 감정도 도출하는 디시전 레벨의 퓨저닝 연구가 부족하다. 본 논문에서는 이러한 문제를 해결하기 위해 오디오 및 영상에 내포되어 있는 이벤트 정보를 추출하고 오디오 및 영상 기반의 분리된 인지모듈을 통해 감정들을 인식하며, 도출된 감정들을 시간단위로 통합하여 디시전 퓨전하는 실시간 오디오 및 영상기반의 감정인식 프레임워크를 제안한다.