• 제목/요약/키워드: CCTVs

검색결과 97건 처리시간 0.029초

Computer Vision-based Continuous Large-scale Site Monitoring System through Edge Computing and Small-Object Detection

  • Kim, Yeonjoo;Kim, Siyeon;Hwang, Sungjoo;Hong, Seok Hwan
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.1243-1244
    • /
    • 2022
  • In recent years, the growing interest in off-site construction has led to factories scaling up their manufacturing and production processes in the construction sector. Consequently, continuous large-scale site monitoring in low-variability environments, such as prefabricated components production plants (precast concrete production), has gained increasing importance. Although many studies on computer vision-based site monitoring have been conducted, challenges for deploying this technology for large-scale field applications still remain. One of the issues is collecting and transmitting vast amounts of video data. Continuous site monitoring systems are based on real-time video data collection and analysis, which requires excessive computational resources and network traffic. In addition, it is difficult to integrate various object information with different sizes and scales into a single scene. Various sizes and types of objects (e.g., workers, heavy equipment, and materials) exist in a plant production environment, and these objects should be detected simultaneously for effective site monitoring. However, with the existing object detection algorithms, it is difficult to simultaneously detect objects with significant differences in size because collecting and training massive amounts of object image data with various scales is necessary. This study thus developed a large-scale site monitoring system using edge computing and a small-object detection system to solve these problems. Edge computing is a distributed information technology architecture wherein the image or video data is processed near the originating source, not on a centralized server or cloud. By inferring information from the AI computing module equipped with CCTVs and communicating only the processed information with the server, it is possible to reduce excessive network traffic. Small-object detection is an innovative method to detect different-sized objects by cropping the raw image and setting the appropriate number of rows and columns for image splitting based on the target object size. This enables the detection of small objects from cropped and magnified images. The detected small objects can then be expressed in the original image. In the inference process, this study used the YOLO-v5 algorithm, known for its fast processing speed and widely used for real-time object detection. This method could effectively detect large and even small objects that were difficult to detect with the existing object detection algorithms. When the large-scale site monitoring system was tested, it performed well in detecting small objects, such as workers in a large-scale view of construction sites, which were inaccurately detected by the existing algorithms. Our next goal is to incorporate various safety monitoring and risk analysis algorithms into this system, such as collision risk estimation, based on the time-to-collision concept, enabling the optimization of safety routes by accumulating workers' paths and inferring the risky areas based on workers' trajectory patterns. Through such developments, this continuous large-scale site monitoring system can guide a construction plant's safety management system more effectively.

  • PDF

A Study on the Implement of AI-based Integrated Smart Fire Safety (ISFS) System in Public Facility

  • Myung Sik Lee;Pill Sun Seo
    • 국제초고층학회논문집
    • /
    • 제12권3호
    • /
    • pp.225-234
    • /
    • 2023
  • Even at this point in the era of digital transformation, we are still facing many problems in the safety sector that cannot prevent the occurrence or spread of human casualties. When you are in an unexpected emergency, it is often difficult to respond only with human physical ability. Human casualties continue to occur at construction sites, manufacturing plants, and multi-use facilities used by many people in everyday life. If you encounter a situation where normal judgment is impossible in the event of an emergency at a life site where there are still many safety blind spots, it is difficult to cope with the existing manual guidance method. New variable guidance technology, which combines artificial intelligence and digital twin, can make it possible to prevent casualties by processing large amounts of data needed to derive appropriate countermeasures in real time beyond identifying what safety accidents occurred in unexpected crisis situations. When a simple control method that divides and monitors several CCTVs is digitally converted and combined with artificial intelligence and 3D digital twin control technology, intelligence augmentation (IA) effect can be achieved that strengthens the safety decision-making ability required in real time. With the enforcement of the Serious Disaster Enterprise Punishment Act, the importance of distributing a smart location guidance system that urgently solves the decision-making delay that occurs in safety accidents at various industrial sites and strengthens the real-time decision-making ability of field workers and managers is highlighted. The smart location guidance system that combines artificial intelligence and digital twin consists of AIoT HW equipment, wireless communication NW equipment, and intelligent SW platform. The intelligent SW platform consists of Builder that supports digital twin modeling, Watch that meets real-time control based on synchronization between real objects and digital twin models, and Simulator that supports the development and verification of various safety management scenarios using intelligent agents. The smart location guidance system provides on-site monitoring using IoT equipment, CCTV-linked intelligent image analysis, intelligent operating procedures that support workflow modeling to immediately reflect the needs of the site, situational location guidance, and digital twin virtual fencing access control technology. This paper examines the limitations of traditional fixed passive guidance methods, analyzes global technology development trends to overcome them, identifies the digital transformation properties required to switch to intelligent variable smart location guidance methods, explains the characteristics and components of AI-based public facility smart fire safety integrated system (ISFS).

CCTV 영상과 딥러닝을 이용한 교량통행 차량하중 추정 (Estimation of Bridge Vehicle Loading using CCTV images and Deep Learning)

  • 배숙경;정우영;최수현;김병현;조수진
    • 한국구조물진단유지관리공학회 논문집
    • /
    • 제28권3호
    • /
    • pp.10-18
    • /
    • 2024
  • 차량 하중은 교량의 열화를 일으키는 주된 원인 중 하나이다. 현재 WiM(Weigh-in-Motion)을 사용하여 통행 차량의 하중을 측정하고 있으나, WiM은 접촉식 센서로 설치 및 유지관리 비용이 큰 단점이 있다. 본 연구에서는 딥러닝과 CCTV 영상을 이용하여 비접촉식으로 교량 통행 차량 하중 이력을 추정하는 방법을 제안하였다. 제안된 방법은 물체 탐지 딥러닝 모델을 이용하여 통행 차종을 인식하고, 해당 차량의 하중을 국내 주요 차량 모델들의 공차중량에 근거하여 작성된 하중기반 7차종 분류표에 근거하여 추정한다. 물체 탐지 딥러닝 모델로는 Faster R-CNN 모델이 사용되었으며, Faster R-CNN 모델을 7차종 분류표에 따라 구축된 영상 학습데이터를 이용하여 학습시켰다. 학습된 딥러닝 모델의 성능은 교량 CCTV로 취득한 영상을 이용하여 검증하였다. 최종적으로 실제 교량 상부에 설치된 CCTV에서 취득한 영상을 이용하여 교량을 통행중인 차량 하중을 연속으로 추정함으로써 특정 시간동안 통행 차량의 하중 이력 그래프를 획득할 수 있음을 보였다.

기계학습(machine learning) 기반 터널 영상유고 자동 감지 시스템 개발을 위한 사전검토 연구 (A preliminary study for development of an automatic incident detection system on CCTV in tunnels based on a machine learning algorithm)

  • 신휴성;김동규;임민진;이규범;오영섭
    • 한국터널지하공간학회 논문집
    • /
    • 제19권1호
    • /
    • pp.95-107
    • /
    • 2017
  • 본 논문에서는 제도적으로 운영 중인 터널내 CCTV들로부터 실시간으로 들어오는 영상들을 최신 딥러닝 알고리즘을 이용, 학습시켜 다양한 조건의 터널환경에서 돌발 상황을 감지하고 그 돌발 상황의 종류들을 분류해 내는 시스템 개발을 위한 사전검토 연구를 수행하였다. 사전검토 연구를 위해, 2개의 도로현장의 교통류 CCTV영상 일부를 이용하여 가용한 전통적인 영상처리기법으로 영상내부로 집입하는 차량을 감지하고, 이동경로를 추적하여 일정 시간간격의 이동 차량의 좌표와 시간정보를 추출하고 학습자료를 구성하였다. 각 차량의 이동정보는 차선변경, 정차 등 6가지의 이벤트 정보와 연계된다. 차량 이동정보와 이벤트로 구성된 학습자료는 레질리언스(resilience) 기계학습 알고리즘을 이용하여 학습하였다. 2개의 은닉층을 설정하고, 각 은닉층의 노드수에 대한 9개의 은닉구조 모델을 설정하여 매개변수 연구를 수행하였다. 본 사전검토의 경우에는 첫 번째, 두 번째 은닉층 노드수가 각각 300개와 150개로 설정된 모델이 합리적으로 가장 추론정확도가 높은 것으로 평가되었다. 이로부터 일반화되기 매우 힘든 복잡한 교통류 상황을 기계학습을 이용하여 어떠한 사전 규칙설정 없이도 교통류의 특징들을 정확히 자동으로 감지할 수 있는 가능성을 보였다. 본 시스템은 시스템의 운용을 통해 지속적으로 교통류 영상과 이벤트 정보가 늘어난다면, 자동으로 그 시스템의 인지능력과 정확도가 자동으로 향상되는 효과도 기대할 수 있다.

딥러닝 기반 터널 영상유고감지 시스템 개발 연구 (Development of a deep-learning based tunnel incident detection system on CCTVs)

  • 신휴성;이규범;임민진;김동규
    • 한국터널지하공간학회 논문집
    • /
    • 제19권6호
    • /
    • pp.915-936
    • /
    • 2017
  • 본 논문에서는 2016년을 기준으로 강화된 터널 방재시설 설치 및 관리지침과, 점차 강화되고 있는 터널 CCTV설치 터널등급 기준과 터널 영상유고감지 시스템의 설치 운용에 대한 요구의 증가 상황을 정리해 보고하였다. 그럼에도, 가동중인 알고리즘 기반의 터널 영상유고감시 시스템의 정상 인지율은 50%가 채 되지 않는 것으로 파악되었으며, 그에 대한 주원인은 터널 내 낮은 조도, 심한 먼지로 인한 영상 선명도 저하, 낮은 CCTV 설치위치로 인한 이동객체의 겹침현상 등으로 파악되었다. 따라서, 본 연구에서는 이러한 열악한 조건에서도 영상유고 정상 인지율을 확보할 수 있는 딥러닝 기반 영상유고감지 시스템을 개발하였으며, 이에 대한 이론적 배경 제시와 시스템의 타당성 검토 연구가 진행되었다. 개발 시스템의 타당성 검토 연구는 터널 방재시설 및 관리지침 내 영상유고감지 항목중 정지 및 역주행 차량을 감지하는 주요 정보인 차량 객체 인식과 보행자 감지를 중심으로 진행되었다. 또한, (1) 동일 터널 내에서 학습과 추론이 이루어 지는 경우와 (2) 다양한 터널의 영상 정보를 통합 학습하고, 각 터널의 영상유고감지에 투입되는 경우, 두개의 시나리오를 설정하여 타당성 검토를 진행하였다. 두 시나리오 모두 일정 시간의 학습 자료와 유사한 상황에 대해서는 열악한 터널환경과 무관하게 그 감지성능이 80% 이상으로 우수하나, 추가 학습 없이 학습된 시간 구간과 멀어질수록 그 추론 성능은 상대적으로 낮은 40% 수준으로 떨어짐을 알 수 있었다. 그러나, 시간이 지남에 따라 자동으로 누적되어 확장되는 영상유고 빅데이터를 반복적으로 학습함으로써, 설치된 영상유고감지 시스템의 보완이나 보정절차 없이도 자동으로 그 영상유고감지 성능이 향상될 수 있음을 보였다.

미끼식물을 이용한 화상병 감염 기주 매몰지 내 화상병균 제거 효율 검증 및 병 재발 모니터링 (Monitoring the Reoccurrence of Fire Blight and the Eradication Efficiency of Erwinia amylovora in Burial Sites of Infected Host Plants Using Sentinel Plants)

  • 박인웅;송유림;응우옌 트렁 부;오엄지;황인선;함현희;김성환;박덕환;오창식
    • 식물병연구
    • /
    • 제28권4호
    • /
    • pp.221-230
    • /
    • 2022
  • Erwinia amylovora에 의해 발생하는 화상병은 2015년에 국내에서 처음으로 보고된 이후 2021년 기준으로 전국 22개 지역으로 전파되었다. 우리나라는 식물방역법에 따라 화상병이 발생한 사과 및 배 과원은 발생주율을 기준으로 모든 기주식물들을 완전히 제거하여 구덩이에 매몰처리한다. 이후, 3년간 화상병균 전파를 막기 위해 매몰지 위에 기주식물 식재를 금하고 있다. 매몰처리법에 의한 화상병균 박멸 효과를 확인하기 위하여, 화상병 감수성 식물을 미끼식물로 이용하여 매몰지에 식재 후 화상병 재발 유무를 확인하였다. 이를 위해, 2019년부터 2021년에 매몰처리한 경기도 안성시와 충북 충주시 소재 매몰지 3곳을 선정하여 미끼식물 감시시설을 설치하였다. 화상병 감수성 식물인 사과(부사)를 미끼식물로 선정하고, 각 감시시설당 5주를 식재하였다. 감시시설은 울타리와 그물로 격리하였다. 또한, 실시간 모니터링을 위한 CCTV와 동작감지기, 그리고 현지 기상상황을 기록하는 센서를 설치하였다. 감시시설을 주기적으로 방문하여 육안으로 화상병 발병 유무를 확인하였다. 미끼식물로부터 화상병 의심 증상을 나타내는 표본을 채취하고 화상병균 특이적 프라이머를 이용하여 loop-mediated isothermal amplification polymerase chain reaction (PCR)과 conventional PCR을 통해 화상병균 감염 유무를 확인하였다. 그 결과, 현재까지 어떠한 미끼식물에서도 화상병균은 검출되지 않았다. 따라서, 현재 시행되고 있는 매몰 후 화상병 기주식물 3년 식재 금지 조항을 완화하는 근거로 본 연구 결과를 제시하고자 하며, 이를 통해 국내 과수산업과 농가의 피해를 최소화하는 데 기여할 수 있을 것이라 생각된다.

계층적 군집화 기반 Re-ID를 활용한 객체별 행동 및 표정 검출용 영상 분석 시스템 (Video Analysis System for Action and Emotion Detection by Object with Hierarchical Clustering based Re-ID)

  • 이상현;양성훈;오승진;강진범
    • 지능정보연구
    • /
    • 제28권1호
    • /
    • pp.89-106
    • /
    • 2022
  • 최근 영상 데이터의 급증으로 이를 효과적으로 처리하기 위해 객체 탐지 및 추적, 행동 인식, 표정 인식, 재식별(Re-ID)과 같은 다양한 컴퓨터비전 기술에 대한 수요도 급증했다. 그러나 객체 탐지 및 추적 기술은 객체의 영상 촬영 장소 이탈과 재등장, 오클루전(Occlusion) 등과 같이 성능을 저하시키는 많은 어려움을 안고 있다. 이에 따라 객체 탐지 및 추적 모델을 근간으로 하는 행동 및 표정 인식 모델 또한 객체별 데이터 추출에 난항을 겪는다. 또한 다양한 모델을 활용한 딥러닝 아키텍처는 병목과 최적화 부족으로 성능 저하를 겪는다. 본 연구에서는 YOLOv5기반 DeepSORT 객체추적 모델, SlowFast 기반 행동 인식 모델, Torchreid 기반 재식별 모델, 그리고 AWS Rekognition의 표정 인식 모델을 활용한 영상 분석 시스템에 단일 연결 계층적 군집화(Single-linkage Hierarchical Clustering)를 활용한 재식별(Re-ID) 기법과 GPU의 메모리 스루풋(Throughput)을 극대화하는 처리 기법을 적용한 행동 및 표정 검출용 영상 분석 시스템을 제안한다. 본 연구에서 제안한 시스템은 간단한 메트릭을 사용하는 재식별 모델의 성능보다 높은 정확도와 실시간에 가까운 처리 성능을 가지며, 객체의 영상 촬영 장소 이탈과 재등장, 오클루전 등에 의한 추적 실패를 방지하고 영상 내 객체별 행동 및 표정 인식 결과를 동일 객체에 지속적으로 연동하여 영상을 효율적으로 분석할 수 있다.