• 제목/요약/키워드: Harmful Video Images

검색결과 6건 처리시간 0.022초

A Method for Identification of Harmful Video Images Using a 2-Dimensional Projection Map

  • Kim, Chang-Geun;Kim, Soung-Gyun;Kim, Hyun-Ju
    • Journal of information and communication convergence engineering
    • /
    • 제11권1호
    • /
    • pp.62-68
    • /
    • 2013
  • This paper proposes a method for identification of harmful video images based on the degree of harmfulness in the video content. To extract harmful candidate frames from the video effectively, we used a video color extraction method applying a projection map. The procedure for identifying the harmful video has five steps, first, extract the I-frames from the video and map them onto projection map. Next, calculate the similarity and select the potentially harmful, then identify the harmful images by comparing the similarity measurement value. The method estimates similarity between the extracted frames and normative images using the critical value of the projection map. Based on our experimental test, we propose how the harmful candidate frames are extracted and compared with normative images. The various experimental data proved that the image identification method based on the 2-dimensional projection map is superior to using the color histogram technique in harmful image detection performance.

색상과 기하학적인 특징 기반의 유해 영상 탐지 (Detection of Harmful Images Based on Color and Geometrical Features)

  • 장석우;박영재;허문행
    • 한국산학기술학회논문지
    • /
    • 제14권11호
    • /
    • pp.5834-5840
    • /
    • 2013
  • 최근 들어, 초고속의 유무선 인터넷과 스마트 기기가 널리 보급됨에 따라 사진이나 동영상 형태의 유해 영상들이 급속히 보급되고 있다. 본 논문에서는 입력되는 영상에서 음란성을 대표하는 여성의 유두 영역을 자동으로 추출하여 유해 영상을 보다 효과적으로 탐지하는 새로운 방법을 제안한다. 제안된 알고리즘은 먼저 입력된 영상의 RGB 색상공간을 $YC_bC_r$ 공간으로 변환하여 사람의 피부색상 영역을 검출한다. 그리고 본 논문에서 새롭게 정의한 유두 맵을 적용하여 검출된 피부 영역으로부터 유두의 후보 영역들을 추출한다. 그런 다음, 기하학적인 특징을 사용하여 유두의 후보영역 중에서 실제 유두 영역만을 강건하게 필터링하고, 여성의 유두 영역을 포함하고 있는 영상을 유해한 영상이라고 판단한다. 성능을 비교 평가하는 실험결과에서는 제안된 색상과 기하학적인 특징 기반의 알고리즘이 유해 영상을 기존의 방법에 비해 보다 정확하게(4.1% 향상) 탐지한다는 것을 실험을 통해 보여준다.

동영상의 유해성 판별을 위한 대표 프레임 선정 기법 (A Technique to Select Key-Frame for Identifying Harmful Video Images)

  • 김성균;박명철;하석운
    • 한국정보통신학회논문지
    • /
    • 제10권10호
    • /
    • pp.1822-1828
    • /
    • 2006
  • 동영상에서 유해정보를 판별하기 위해서는 대표프레임을 효율적으로 선정 할 수 있어야 한다. 기존의 대표프레임 선정 기법은 대부분이 장면전환을 중심으로 이루어진다. 이러한 기법 은 연속된 변화특성을 가지는 유해 동영상의 경우에는 불필요한 대표프레임으로 인해 전체적인 판별효율을 저하시킨다. 본 논문에서는 판별시스템의 입력이 되는 대표프레임을 프레 임간 변화특성을 이용하여 선정하는 기법을 제안한다. 이 기법의 실험을 위해서 기존의 판별시스템에 제안된 기법으로 선정된 대표프레임을 투입한 경우에 90% 이상이 유해하다고 판별하여 입력의 적합성이 입증되었으며, 선정된 대표프레임의 수도 I-프레임 비 해 68%의 감소율을 보여 시간적 효율성도 입증되었다. 그러므로 본 기법은 효율적인 유해성 판별시스템을 가능하게 하여, 건전한 동영상 정보의 유통에 효과적으로 기여할 수 있다.

Development of Workplace Risk Assessment System Based on AI Video Analysis

  • Jeong-In Park
    • 한국컴퓨터정보학회논문지
    • /
    • 제29권1호
    • /
    • pp.151-161
    • /
    • 2024
  • 이 논문에서는 제조공장 사업장 현장 내 각 공정을 촬영한 영상을 인공지능(AI)으로 분석하여 위험·유해 요인을 파악할 수 있도록 작업장 위험지도(Danger Map)를 개발하고 이 Danger Map 에서 도출된 빈도·강도에 기반한 위험도와 안전도를 실제 현장상황에 맞추어 자동으로 도출하여 유사 제조 업종에 적용할 수 있는 시스템을 제시히였다. 특히, 사업장의 안전도(위험도)를 엑셀 등 수동으로 평가하던 종래의 평가방식에서 영상으로부터 취득된 유해·위험 요인별 위험성 수준을 자동으로 산정 평가하여 시스템에 의한 안전 확보와 안전도(위험도)를 계산함으로써 이에 따라 기업에서 적절한 활동 및 조치를 마련할 수 있도록 하였다. 안전도(위험도) 산출 및 평가 자동화를 위해 '하인리히의 법칙(Heinrich's law)'을 모델로 하였으며, 위험한 행동 패턴에 대해 5X4점 평가척도를 계산하였다. 이 시스템을 실증적용하기 위해 금속주물주조공장에 적용하였으며 매월 안전도(위험도) 계산에 추가되는 시간적 비용 및 노동력을 2명 절감할 수 있었다.

Toward Occlusion-Free Depth Estimation for Video Production

  • Park, Jong-Il;Seiki-Inoue
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 1997년도 Proceedings International Workshop on New Video Media Technology
    • /
    • pp.131-136
    • /
    • 1997
  • We present a method to estimate a dense and sharp depth map using multiple cameras for the application to flexible video production. A key issue for obtaining sharp depth map is how to overcome the harmful influence of occlusion. Thus, we first propose to selectively use the depth information from multiple cameras. With a simple sort and discard technique, we resolve the occlusion problem considerably at a slight sacrifice of noise tolerance. However, boundary overreach of more textured area to less textured area at object boundaries still remains to be solved. We observed that the amount of boundary overreach is less than half the size of the matching window and, unlike usual stereo matching, the boundary overreach with the proposed occlusion-overcoming method shows very abrupt transition. Based on these observations, we propose a hierarchical estimation scheme that attempts to reduce boundary overreach such that edges of the depth map coincide with object boundaries on the one hand, and to reduce noisy estimates due to insufficient size of matching window on the other hand. We show the hierarchical method can produce a sharp depth map for a variety of images.

  • PDF

Automatic identification and analysis of multi-object cattle rumination based on computer vision

  • Yueming Wang;Tiantian Chen;Baoshan Li;Qi Li
    • Journal of Animal Science and Technology
    • /
    • 제65권3호
    • /
    • pp.519-534
    • /
    • 2023
  • Rumination in cattle is closely related to their health, which makes the automatic monitoring of rumination an important part of smart pasture operations. However, manual monitoring of cattle rumination is laborious and wearable sensors are often harmful to animals. Thus, we propose a computer vision-based method to automatically identify multi-object cattle rumination, and to calculate the rumination time and number of chews for each cow. The heads of the cattle in the video were initially tracked with a multi-object tracking algorithm, which combined the You Only Look Once (YOLO) algorithm with the kernelized correlation filter (KCF). Images of the head of each cow were saved at a fixed size, and numbered. Then, a rumination recognition algorithm was constructed with parameters obtained using the frame difference method, and rumination time and number of chews were calculated. The rumination recognition algorithm was used to analyze the head image of each cow to automatically detect multi-object cattle rumination. To verify the feasibility of this method, the algorithm was tested on multi-object cattle rumination videos, and the results were compared with the results produced by human observation. The experimental results showed that the average error in rumination time was 5.902% and the average error in the number of chews was 8.126%. The rumination identification and calculation of rumination information only need to be performed by computers automatically with no manual intervention. It could provide a new contactless rumination identification method for multi-cattle, which provided technical support for smart pasture.