• 제목/요약/키워드: 네트워크 카메라

검색결과 361건 처리시간 0.031초

동적 베이지안 네트워크를 이용한 다중 카메라기반 축구 비디오 요약 (Summarization of Soccer Video based on Multiple Cameras Using Dynamic Bayesian Network)

  • 민준기;박한샘;조성배
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2009년도 학술대회
    • /
    • pp.567-571
    • /
    • 2009
  • 스포츠 경기의 비디오 중계는 생동감 있고 흥미로운 장면들을 시청자에게 제공해주기 위하여 여러 대의 카메라를 사용한다. 하지만 기존의 방송 시스템은 시청자에게 하나의 비디오로 편집된 장면만을 제공하기 때문에 시청자의 관심도를 고려하여 특정 장면을 요약해주거나 검색해주는 등의 지능형 방송 서비스가 어렵다. 본 논문에서는 여러 대의 카메라로 촬영한 축구경기 비디오를 요약 및 검색해주는 시스템을 제안한다. 이는 비디오에 주석으로 태깅되어있는 저수준 정보를 기반으로 하는 동적 베이지안 네트워크를 이용하여 슛, 크로스, 반칙, 세트플레이 등과 같은 주요장면을 추출하고, 해당 주요장면타입에 따라 자동으로 뷰를 선택한다. 따라서 제안하는 시스템은 사용자에게 주요장면 요약이나 선호하는 뷰의 선택기능을 제공하며, 사용자의 선호도를 고려할 경우 개인화 방송 서비스를 제공해줄 수 있다.

  • PDF

트레일 카메라 및 AIS를 이용한 해양관측부이용 감시시스템의 개발 (A Development of Marine Observation Buoy Monitoring System Using Trail Camera and AtoN AIS)

  • 강용수;왕치록;황훈규;강석순;김헌우
    • 한국항해항만학회:학술대회논문집
    • /
    • 한국항해항만학회 2018년도 춘계학술대회
    • /
    • pp.306-307
    • /
    • 2018
  • 본 논문에서는 해양관측부이 보호 및 해상 관측 등을 위해 사용되고 있는 국내외 영상감시 시스템 및 기술 현황을 살펴보고, 차세대 해상용 통신 네트워크 및 인공위성을 통한 해양 공공시설의 안전감시 시스템이 가져야 할 요구사항과 이에 대한 국내외 기술개발 현황을 살펴본다. 또한, 선박 인식 및 추적, 나아가 충돌 예측 등을 수행하여, 해상사고를 예방할 수 있는 해양관측부이용 감시시스템의 개발에 관한 내용을 다룬다. 이를 위해 개발하는 시스템은 해양관측부이에 장착되어 저전력으로 동작하며, 해수에 강한 트레일 감시카메라를 개발하여 적용한다. 추가적으로 AIS정보를 활용한 충돌 예방 경고 모듈이 탑재되고, LTE-M 등과 같은 차세대 해상이동통신 및 위성망 M2M 네트워크를 응용한 통신 모듈을 기반으로 육상 알람 기능을 제공한다. 이를 통해 시스템의 신뢰성을 확보하고, 대형 선박과의 해상사고(선박추돌사고 및 기름유출 등)와 소형선박에 의한 시설물 훼손(Vandalism)의 발생 가능성을 인지할 수 있는 종합적인 데이터를 수집하여 사고의 예방 및 재난 상황 등을 예측함으로써 중요시설의 안전 및 해양환경 보호에 기여하고자 한다.

  • PDF

컨볼루션 뉴럴 네트워크를 이용한 군중 행동 감지 (Crowd Behavior Detection using Convolutional Neural Network)

  • 와셈 울라;파트 우 민 울라;백성욱;이미영
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제15권6호
    • /
    • pp.7-14
    • /
    • 2019
  • 감시 영상에서 군중 행동의 자동 모니터링 및 감지는 보안, 안전 및 자산 보호와 같은 방대한 응용 프로그램으로 인해 컴퓨터 비전 분야에서 중요한 관심을 받고 있다. 또한 연구 커뮤니티에서 군중 분석 분야가 점차 증가하고 있다. 이를 위해서는 군중들의 행동을 감지하고 분석하는 것이 매우 필요하다. 본 논문에서는 스마트 시티에 설치된 감시 카메라의 비정상적인 활동을 감지하는 딥러닝 기반 방법을 제안하였다. 미세 조정된 VGG-16모델은 트레이닝된 공개적으로 사용 가능한 벤치마크 군중 데이터 셋을 실시간 스트리밍으로 테스트한다. CCTV카메라는 비디오 스트림을 캡쳐하는데, 비정상적인 활동이 감지되면 경보가 발생하여 추가 손실 전에 즉각적인 조치가 이루어지도록 가장 가까운 경찰서로 전송된다. 우리는 제안된 방법이 기존의 첨단 기술 보다 성능이 뛰어남을 실험으로 입증하였다.

TSSN: 감시 영상의 강우량 인식을 위한 심층 신경망 구조 (TSSN: A Deep Learning Architecture for Rainfall Depth Recognition from Surveillance Videos)

  • 리준;현종환;최호진
    • 한국차세대컴퓨팅학회논문지
    • /
    • 제14권6호
    • /
    • pp.87-97
    • /
    • 2018
  • 강우량은 매우 중요한 기상 정보이다. 일반적으로, 도로 수준과 같은 높은 공간 해상도의 강우량이 더 높은 가치를 가진다. 하지만, 도로 수준의 강우량을 측정하기 위해 충분한 수의 기상 관측 장비를 설치하는 것은 비용 관점에서 비효율적이다. 본 논문에서는 도로의 감시 카메라 영상으로부터 강우량을 인식하기 위해 심층 신경망을 활용하는 방법에 대해 제시한다. 해당 목표를 달성하기 위해, 본 논문에서는 교내 두 지역의 감시 카메라 영상과 강우량 데이터를 수집했으며, 새로운 심층 신경망 구조인 Temporal and Spatial Segment Networks(TSSN)를 제안한다. 본 논문에서 제시한 심층 신경망으로 강우량 인식을 수행한 결과, 프레임 RGB와 두 연속 프레임 RGB 차이를 입력으로 사용했을 때, 높은 성능으로 강우량 인식을 수행할 수 있었다. 또한, 기존의 심층 신경망 모델과 비교했을 때, 본 논문에서 제안하는 TSSN이 가장 높은 성능을 기록함을 확인할 수 있었다.

무선 로봇을 이용한 네트워크 영상 제어 시스템의 설계 (Implementation of Network Image Control System using Wireless Robot)

  • 김택수;박상조
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2003년도 추계종합학술대회 논문집
    • /
    • pp.177-180
    • /
    • 2003
  • 본 논문에서는 사람이 접근하기 힘들거나 위험한 곳을 카메라가 내장된 무선 로봇을 이용하여 네트워크에서 영상을 감시하고, 제어하는 영상제어시스템을 실현한다. 잡음 제거 회로에 의해 무선 통신에서 발생하는 잡음을 경감시키고, 수은전지를 사용하여 로봇 동작시간을 증가시킨다. 인터넷을 통한 네트워크의 구성에 의해 원격으로 장소에 관계없이 무선 로봇을 제어하고, 영상신호를 감시할 수 있다.

  • PDF

WIPI 플랫폼을 이용한 홈네트웍 어플리케이션 개발 (Development of home networking application using WIPI platform)

  • 강훈철;좌정우
    • 한국콘텐츠학회:학술대회논문집
    • /
    • 한국콘텐츠학회 2004년도 춘계 종합학술대회 논문집
    • /
    • pp.323-329
    • /
    • 2004
  • 다기능 단말기 보급이 확산됨에 따라 무선인터넷 사업에서 이를 기반으로 새로운 사업모델이 개발되고 있다. 다기능 단말기는 VOD, AOD 등의 멀티미디어 서비스와 블루투스, 무선랜을 이용한 근거리 무선인터넷 서비스를 가능하게 하고 있다. 새로운 사업모델로 다기능 단말기를 이용한 홈 네트워킹 서비스가 개발되고 있다. 본 논문은 흠 네트워크 제어기와 연동하는 WIPI 기반 홈 네트워크 어플리케이션에 관한 것이다. 개발된 홈 네트워크 어플리케이션은 댁내 장비를 제어하고 웹 카메라와 연동하여 댁내의 보안상태를 확인할 수 있는 기능을 제공한다. GigBee, RFID 등의 PAN장치를 내장한 다기능 단말기가 개발됨에 따라 PAN을 이용한 다양한 서비스가 개발될 것이다.

  • PDF

모바일기기 사용자의 컨텍스트와 이미지 주석을 이용한 베이지안 네트워크기반 사진 자동요약 (Bayesian Network based Automatic Summarization of Photos using User's Context on Mobile Device and Image Annotation)

  • 민준기;조성배
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2008년도 한국컴퓨터종합학술대회논문집 Vol.35 No.1 (C)
    • /
    • pp.425-428
    • /
    • 2008
  • 모바일기기에 탑재되어있는 디지털 카메라의 성능이 향상됨에 따라 이를 이용한 사진의 촬영 및 수집이 용이해졌으며, 따라서 사용자 로그정보를 이용하여 방대한 양의 사진을 분석하거나 브라우징해주는 방법들이 연구되고 있다. 본 논문에서는 모바일기기의 불확실한 로그정보와 사진 주석정보를 베이지안 네트워크로 모델링하여 사용자가 겪은 이벤트들을 추론하고 사용자의 일과를 요약해주는 방법을 제안한다. 우선 사진들을 시간과 위치정보에 따라 분할하여 사진그룹목록을 생성하고, 이를 모바일기기에 입력되어있는 사용자의 일정목록과 합하여 임시이벤트목록을 생성한다. 그 뒤 베이지안 네트워크를 이용하여 각 이벤트를 인식하고 이를 가장 잘 나타내는 사진을 선택한다. 제안하는 방법은 선택된 사진들을 나열하여 사진다이어리형식으로 사용자의 일과를 요약하여주며, 이때 특정 이벤트와 매치되는 사진이 없을 경우 미리 정의되어있는 만화 컷을 대신 사용하여 내용이 매끄럽게 이어지도록 하였다.

  • PDF

IEEE 802.15.3e 초고속 근접통신 표준기술 동향 (Trends for Close Proximity Communications of IEEE 802.15.3e)

  • 신경철;김영훈;이재승;이문식;권동승
    • 전자통신동향분석
    • /
    • 제31권1호
    • /
    • pp.45-57
    • /
    • 2016
  • 스마트폰을 포함한 고성능 모바일 기기들이 급속하게 증가하고, 통신사업자의 네트워크를 경유하지 않더라도 주변 기기 간 직접(Point-to-Point: P2P) 통신을 지원하는 다양한 방식의 통신기능이 스마트폰, 카메라 등 다양한 기기에 탑재됨에 따라 근접통신 기반의 다양한 신규 서비스들이 출현될 것으로 예상된다. 또한, 주변의 IoT 기기들과도 직접통신을 통해 정보를 교환하는 등 동영상, 음악 등의 큰 용량의 미디어를 통한 생활정보 획득이 일상화되고 있다. 모바일 사용자들이 미디어 정보를 네트워크 기반의 정보 소통이 아닌, 모바일/IoT 기기 간 직접 정보를 전달함으로써 네트워크의 부하를 경감하고, 사용자의 정보전달이 근접거리에서 보다 안전하게 소통되어 편리한 ICT 일상생활로 변화할 것이다.

  • PDF

단일 RGB 영상을 이용한 비주얼 오도메트리 (RGB-VO: Visual Odometry using mono RGB)

  • 이주성;황상원;김우진;이상윤
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2018년도 춘계학술발표대회
    • /
    • pp.454-456
    • /
    • 2018
  • 주율 주행과 로봇 시스템의 기술이 발전하면서 이와 관련된 영상 알고리즘들의 연구가 활발히 진행되고 있다. 제안 네트워크는 단일 영상을 이용하여 비주얼 오도메트리를 예측하는 시스템이다. 딥러닝 네트워크로 KITTI 데이터 세트를 이용하여 학습과 평가를 하며 네트워크의 입력으로는 연속된 두 개의 프레임이 들어가고 출력으로는 두 프레임간 카메라의 회전과 이동 정보가 된다. 이를 통하여 대표적으로 자동차의 주행 경로를 알 수 있으며 여러 로봇 시스템 등에서 활용할 수 있다.

단안 비디오로부터의 5D 라이트필드 비디오 합성 프레임워크 (Deep Learning Framework for 5D Light Field Synthesis from Single Video)

  • 배규호;;박인규
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.150-152
    • /
    • 2019
  • 본 논문에서는 기존의 연구를 극복하여 단일 영상이 아닌 단안 비디오로부터 5D 라이트필드 영상을 합성하는 딥러닝 프레임워크를 제안한다. 현재 일반적으로 사용 가능한 Lytro Illum 카메라 등은 초당 3프레임의 비디오만을 취득할 수 있기 때문에 학습용 데이터로 사용하기에 어려움이 있다. 이러한 문제점을 해결하기 위해 본 논문에서는 가상 환경 데이터를 구성하며 이를 위해 UnrealCV를 활용하여 사실적 그래픽 렌더링에 의한 데이터를 취득하고 이를 학습에 사용한다. 제안하는 딥러닝 프레임워크는 두 개의 입력 단안 비디오에서 $5{\times}5$의 각 SAI(sub-aperture image)를 갖는 라이트필드 비디오를 합성한다. 제안하는 네트워크는 luminance 영상으로 변환된 입력 영상으로부터 appearance flow를 추측하는 플로우 추측 네트워크(flow estimation network), appearance flow로부터 얻어진 두 개의 라이트필드 비디오 프레임 간의 optical flow를 추측하는 광학 플로우 추측 네트워크(optical flow estimation network)로 구성되어있다.

  • PDF