• 제목/요약/키워드: Video Scene Detection

검색결과 190건 처리시간 0.036초

비디오 시퀀스에서의 영역분할을 이용한 장면 전환 검출 방법의 제안 (Suggestion Of The Scene Change Detection Method Using The Region Segmentation On Video Sequence)

  • 추호진;이광호;최철;최영관;윤필영;조성민;박장춘
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2001년도 춘계학술발표논문집 (하)
    • /
    • pp.879-882
    • /
    • 2001
  • 장면 전환 검출을 위한 기존의 주요 방법은 대부분 화소값 차이, 통계적 차이, 그리고 일반적으로 가장 많이 사용하는 히스토그램 비교법등이었다. 이러한 방법에서는 각 비디오 프레임내에 포함되어 있는 영상의 내용 변화에 의한 장면 전환을 검출하기가 어렵고 히스토그램이 비슷한 경우 장면 전환 검출을 할 수 없었다. 본 논문에서는 비디오 시퀀스로부터 빠른 움직임을 포함하는 장면의 변화를 검출하는 객체의 중심점을 이용한 영역분할기법을 제안하였다. 제안하는 방법은 두 개의 프레임간 차영상을 이용해서 명암차를 추출한 후 화소값과 객체 영역의 중심점을 구한 후 사등분 분할하여 영역객체의 평균 및 분산값을 이용해서 내용에 의한 장면 전환도 검출하였다. 실험결과 제안된 방법에 의한 장면 전환 검출은 기존의 다른 방법에 비해 더 나은 성능을 얻었다.

  • PDF

재난현장의 독립적 통신망 확보를 위한 스마트 통합 관제시스템 (Smart Integrated Monitoring System for Ensuring Indenpendent Network in Disaster Site)

  • 이양선
    • 디지털콘텐츠학회 논문지
    • /
    • 제18권5호
    • /
    • pp.905-910
    • /
    • 2017
  • 본 논문에서는 재난안전통신망의 전체 구조가 아닌 재난현장에서 소방대원과 현장 지휘통제실간의 정보교환이 효과적으로 이루어질 수 있도록 재난현장 지역 내의 독립적 네트워크 인프라(무선통신, 영상전송 및 현장상황파악 등) 확보를 위한 현장형 스마트 통합관제시스템을 제안하였다. 제안한 재난환경 스마트 통합 관제시스템은 재난현장에서 현장대원간의 무선통신을 지원하고, 재난현장 영상정보 수집을 위한 드론과의 통신을 지원함으로써 현장 관제시스템에서 재난상황에 대한 전체 주변 영상확보 및 현장대원의 효율적 지휘가 가능하게 된다.

비디오에서 오정색과 오간색 식별 (Identification of 5-Jung-color and 5-Kan-color In Video)

  • 신성윤;표성배
    • 한국컴퓨터정보학회논문지
    • /
    • 제15권1호
    • /
    • pp.103-109
    • /
    • 2010
  • 색이란 인간이 조형 활동을 처음 시작할 때부터 사용되어진 조형언어로서 인간이 눈으로 볼 수 있는 모든 현상 세계에 존재하는 것이다. 본 논문에서는 장면 전환 검출에서 추출된 대표 프레임을 대상으로 한국의 전통색 조화를 식별한다. 전통색은 오정색과 오간색으로 분류하여 조화를 이루는지 판별하도록 한다. 빨강, 파랑, 노랑, 검정, 흰색을 오정색이라 부르고 분홍, 하늘색, 보라, 유황색, 초록을오 간색이라 하여 식별한다. 먼저, Canny 알고리즘을 이용하여 경계선을 추출한다. 그리고 경계선을 중심으로 색들을 레이블링 하고 클러스터링 한다. 마지막으로, 전통 색채 조화 식별 방법을 이용하여 전통색을 식별한다. 본 논문에서 제시한 연구는 실험을 통하여 우수성이 입증 되었다.

해마신경망을 이용한 관심 객체 기반의 효율적인 멀티미디어 검색 시스템의 개발 (The Development of Efficient Multimedia Retrieval System of the Object-Based using the Hippocampal Neural Network)

  • 정석훈;강대성
    • 대한전자공학회논문지SP
    • /
    • 제43권2호
    • /
    • pp.57-64
    • /
    • 2006
  • 본 논문에서는 해마신경망(HCNN:HippoCampal Neural Network)을 이용하여 사용자 친화적인 객체 기반 멀티미디어 검색시스템을 제안한다. 내용 기반 검색(Content-based Retrieval)에 관한 대부분의 기존의 질의 방법은 입력 영상에 의한 질의 또는 컬러(color), 형태(shape), 질감(texture)등과 같은 low-level의 특징을 사용한다. 본 논문에서 제안하는 방법은 MPEG 기반의 압축 비디오 스트림으로부터 장면 전환 검출을 수행하여 샷을 검출한다. 이 샷 프레임에서 컬러 객체의 자동 추출을 위하여 similar colorization과 ACE(Adaptive Circular filter and Edge) 알고리즘을 사용한다. 그리고 이렇게 추출된 특징을 해마 신경망을 통하여 학습한 후 멀티미디어 검색 시스템을 구성한다. 제안하는 해마 신경망은 호감도 조정에 의해서 입력되는 영상패턴의 특징들을 흥분학습과 억제학습을 이용하여 불필요한 특징은 억제시키고 중요한 특징은 흥분학습을 통해 장기기억 시켜서 적응성 있는 실시간 검색 시스템을 구현한다.

Automatic Person Identification using Multiple Cues

  • Swangpol, Danuwat;Chalidabhongse, Thanarat
    • 제어로봇시스템학회:학술대회논문집
    • /
    • 제어로봇시스템학회 2005년도 ICCAS
    • /
    • pp.1202-1205
    • /
    • 2005
  • This paper describes a method for vision-based person identification that can detect, track, and recognize person from video using multiple cues: height and dressing colors. The method does not require constrained target's pose or fully frontal face image to identify the person. First, the system, which is connected to a pan-tilt-zoom camera, detects target using motion detection and human cardboard model. The system keeps tracking the moving target while it is trying to identify whether it is a human and identify who it is among the registered persons in the database. To segment the moving target from the background scene, we employ a version of background subtraction technique and some spatial filtering. Once the target is segmented, we then align the target with the generic human cardboard model to verify whether the detected target is a human. If the target is identified as a human, the card board model is also used to segment the body parts to obtain some salient features such as head, torso, and legs. The whole body silhouette is also analyzed to obtain the target's shape information such as height and slimness. We then use these multiple cues (at present, we uses shirt color, trousers color, and body height) to recognize the target using a supervised self-organization process. We preliminary tested the system on a set of 5 subjects with multiple clothes. The recognition rate is 100% if the person is wearing the clothes that were learned before. In case a person wears new dresses the system fail to identify. This means height is not enough to classify persons. We plan to extend the work by adding more cues such as skin color, and face recognition by utilizing the zoom capability of the camera to obtain high resolution view of face; then, evaluate the system with more subjects.

  • PDF

연속적인 배경 모델 학습을 이용한 코드북 기반의 전경 추출 알고리즘 (Codebook-Based Foreground Extraction Algorithm with Continuous Learning of Background)

  • 정재영
    • 디지털콘텐츠학회 논문지
    • /
    • 제15권4호
    • /
    • pp.449-455
    • /
    • 2014
  • 이동 물체의 검출은 비디오 감시, 보행자의 행동 분석과 같은 컴퓨터 시각 분야에서 매우 중요한 전처리 작업이다. 이는 실제 외부 환경을 대상으로 할 때, 영상 시퀀스에 존재하는 배경의 불규칙한 움직임, 조명 변화, 그림자, 배경 물체의 위상 변화 및 잡음 등으로 인하여 매우 어려운 작업이다. 본 논문에서는 코드북 기반의 전경 검출 알고리즘을 제안한다. 코드북은 입력 영상으로부터 얻어지는 배경화소에 대한 정보 데이터베이스이다. 먼저, 첫 번째 프레임을 배경 영상으로 가정하고 이를 입력 영상과 비교하여 차 영상을 구한다. 구해진 차 영상에는 순수한 이동 물체뿐만 아니라, 잡음까지 포함된다. 둘째로, 전경으로 검출된 화소의 색상과 밝기 값을 가지고 코드북을 조사하여 존재하는 경우 잘못 추출된 전경 화소로 판단하고 전경에서 제거한다. 마지막으로, 다음번 입력되는 프레임을 반복 처리하기 위하여 배경 영상을 새롭게 갱신하는데, 배경 화소로 검출된 화소의 경우에는 현재의 입력 영상으로부터 추정되며, 전경 화소로 검출된 경우에는 이전 배경 영상의 화소 값을 복사하여 사용한다. 제안한 알고리즘을 PETS2009 데이터에 적용한 결과를 GMM 알고리즘과 표준 코드북 알고리즘의 결과와 비교하여 보인다.

Object Detection Based on Deep Learning Model for Two Stage Tracking with Pest Behavior Patterns in Soybean (Glycine max (L.) Merr.)

  • Yu-Hyeon Park;Junyong Song;Sang-Gyu Kim ;Tae-Hwan Jun
    • 한국작물학회:학술대회논문집
    • /
    • 한국작물학회 2022년도 추계학술대회
    • /
    • pp.89-89
    • /
    • 2022
  • Soybean (Glycine max (L.) Merr.) is a representative food resource. To preserve the integrity of soybean, it is necessary to protect soybean yield and seed quality from threats of various pests and diseases. Riptortus pedestris is a well-known insect pest that causes the greatest loss of soybean yield in South Korea. This pest not only directly reduces yields but also causes disorders and diseases in plant growth. Unfortunately, no resistant soybean resources have been reported. Therefore, it is necessary to identify the distribution and movement of Riptortus pedestris at an early stage to reduce the damage caused by insect pests. Conventionally, the human eye has performed the diagnosis of agronomic traits related to pest outbreaks. However, due to human vision's subjectivity and impermanence, it is time-consuming, requires the assistance of specialists, and is labor-intensive. Therefore, the responses and behavior patterns of Riptortus pedestris to the scent of mixture R were visualized with a 3D model through the perspective of artificial intelligence. The movement patterns of Riptortus pedestris was analyzed by using time-series image data. In addition, classification was performed through visual analysis based on a deep learning model. In the object tracking, implemented using the YOLO series model, the path of the movement of pests shows a negative reaction to a mixture Rina video scene. As a result of 3D modeling using the x, y, and z-axis of the tracked objects, 80% of the subjects showed behavioral patterns consistent with the treatment of mixture R. In addition, these studies are being conducted in the soybean field and it will be possible to preserve the yield of soybeans through the application of a pest control platform to the early stage of soybeans.

  • PDF

화재수신기 기반의 화재감시로봇을 위한 프로토콜 설계 (Protocol Design for Fire Receiver­based Fire Detection Robots)

  • 임종천;이재민
    • 한국정보전자통신기술학회논문지
    • /
    • 제11권4호
    • /
    • pp.452-459
    • /
    • 2018
  • 기존의 화재 관련 소방로봇들은 원격조종기로 제어되어 화재현장에서 화재 상황을 감시하거나 화재를 진압하는데 사용되고 있다. 그러나 이러한 방식은 화재 발생 후 골든타임 안에 로봇을 준비하고 투입하는데 많은 시간이 소요되어 소방로봇으로서의 역할을 충분히 다하지 못한다는 문제점을 가지고 있다. 자율 주행 화재감시로봇을 활용하면 화재수신기와 연동하여 화재 신호 발생 시 출동한 로봇이 화재 현장의 동영상을 촬영하여 방재 담당자에게 영상을 전달함으로써 실제로 화재가 발생했는지 또는 오보인지를 확인 할 수 있도록 정확하고 빠른 판단 기회를 제공하고 동시에 화재를 초기 진압함으로써 대형 사고로 확산되는 것을 방지할 수가 있다. 본 논문에서는 자율이동 화재감시로봇의 구성과 이 로봇이 화재수신기와 연동하는데 필요한 통신 프로토콜을 제안한다. 실시간으로 다수의 화재감시로봇을 제어할 수 있는 통신 프로토콜을 설계하며 화재수신기와의 통신을 무선 Wi-Fi를 이용하여 이더넷 네트워크의 인터페이스 역할을 수행하도록 계층적 네트워크로 구성한다. 설계하는 화재감시로봇과 화재수신기간의 무선통신을 구현하고 필드시험을 통하여 동작의 유효성을 확인한다.

UWB 동기화를 위한 새로운 결정 법칙들 (New Decision Rules for UWB Synchronization)

  • 정다해;이영윤;안상호;이의형;유승환;윤석호
    • 한국통신학회논문지
    • /
    • 제33권2C호
    • /
    • pp.192-199
    • /
    • 2008
  • Ultra-wideband (UWB) 시스템의 동기화에 대한 이제까지의 연구에서는 참조 신호와 다중경로 성분들 중 어느 한 성분과의 위상을 맞추는 것을 동기화라 정의하고 빠르게 동기화하는 기법에 대하여 연구하였다. 그러나 다중경로 성분들은 서로 다른 전력을 갖기 때문에, 동기화 이후 과정들에서, 낮은 전력을 갖는 다중경로 성분에서 동기화가 될 경우에는 좋지 않은 성능을 가지며, 높은 전력을 갖는 다중경로 성분에서 동기화 할 경우에는 좋은 성능을 갖는다. 일반적으로 첫 번째 다중경로 성분이 가장 큰 전력을 가지며, 따라서 첫 번째 다중경로 성분에서 동기화함으로서 동기화 이후 과정들의 성능을 향상시킬 수 있다. 본 논문에서는 첫 번째 다중경로 성분과 참조 신호의 위상이 맞았을 때를 동기화라 새롭게 정의하고, 최대 우도 (maximum-likelihood: ML) 방법을 이용하여 UWB 다중경로 채널에서 첫 번째 다중경로 성분을 찾기 위한 최적 결정 법칙을 유도하였으며, 동시에 이에 바탕을 둔 준 최적 결정 법칙을 제안하였다. 모의실험을 통해, 새로운 동기화의 정의에 따라 동기화하였을 때, 그렇지 않을 때보다 좋은 복조 성능을 갖는 것을 확인할 수 있었으며, 본 논문에서 제안된 최적 및 준 최적 결정 법칙은 기존 결정 법칙과 비교할 때 월등한 성능을 갖는 것을 확인할 수 있었다.

PTZ 카메라와 무선 센서 네트워크를 이용한 효율적인 다중 지역 절전형 모니터링 시스템 (Efficient Multi-spot Monitoring System Using PTZ Camera and Wireless Sensor Network)

  • 서동규;손철수;양수영;조병록;김원중
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2009년도 추계학술대회
    • /
    • pp.581-584
    • /
    • 2009
  • 최근 우범 지역, 어린이 보호 구역, 방범 지역 등에 인명과 재산을 보호하기 위하여 감시용 카메라가 설치되고, 그 효과가 인정되어 점점 많이 설치되고 있다. 일반적인 감시용 카메라는 한 곳만 촬영할 수 있기 때문에 다수의 장소를 상세히 감시하기 위하서는 여러 대의 카메라를 설치해야 하는 비용적인 문제가 있다. 팬, 틸트 그리고 줌 기능을 갖춘 PTZ 카메라는 내부 스케쥴 또는 원격 조정으로 카메라의 초점을 이동시켜서 여러 장소를 감시할 수 있는 장점이 있지만, 감시 이벤트가 발생한 지점을 인식할 수는 없기 때문에 이벤트가 발생한 지점으로 카메라의 초점을 자동으로 이동시킬 수 없는 단점이 있다. 본 연구는 다수의 장소를 능동적이면서 저비용으로 감시하기 위하여 각각의 감시 지역에 온도, 조도, 인체 감지 또는 가스 센서 등을 탑재한 무선 센서 노드를 설치하고, 감시지역에 설치된 무선 센서로부터 수신한 각종 센서 데이터를 분석하여 이상 징후로 판단될 경우, 사전에 설정된 위치로 PTZ 카메라의 초점을 자동으로 이동시키고 촬영한 영상을 사용자에게 전송하여 다중 지역을 효율적으로 모니터링할 수 있는 시스템을 연구하였다. 또한 야간에 적외선을 이용하여 촬영할 수 있지만, 해상도를 높이기 위하여 사용된 조명 장치의 전력 소모를 줄이기 위하여 이벤트가 발생한 경우에만 조명 장치의 전원을 공급함으로써 절전형 그린 모니터링 시스템을 구현할 수 있었다.

  • PDF