• Title/Summary/Keyword: Camera network

검색결과 645건 처리시간 0.042초

다중 카메라와 객체 탐지를 활용한 건설 현장 사고 감지 시스템 (Accident Detection System for Construction Sites Using Multiple Cameras and Object Detection)

  • 김민형;감민성;류호성;박준혁;전민수;최형우;민준기
    • 문화기술의 융합
    • /
    • 제9권5호
    • /
    • pp.605-611
    • /
    • 2023
  • 건설 현장의 사고는 중증외상환자가 발생하기 쉬운 특성 탓에 사망으로 이어지는 비율이 매우 높다. 중증외상환자의 사망률을 줄이기 위해서는 빠른 대처가 필요하며, 빠른 사고 대처를 위해 인공지능 기술과 카메라를 이용하여 사고를 감지하는 시스템들이 개발되었다. 그러나 기존 사고 감지 시스템들은 단일 카메라만을 사용하여, 사각지대로 인해 건설 현장의 모든 사고를 감지하기에 한계가 있다. 따라서, 본 논문에서는 다수의 카메라를 사용하여 감지 사각지대를 최소화하는 시스템을 구현하였다. 구현된 시스템은 다수의 카메라의 영상에서 YOLO-pose 라이브러리로 특징점을 추출하고, 추출된 특징점을 장단기 메모리(Long Short Term Memory) 기반 순환신경망에 입력하여 사고를 감지하였다. 실험 결과, 우리는 제안하는 시스템이 복수의 카메라 사용으로 감지 사각지대를 최소화하면서도 높은 정확도를 가지는 것을 확인하였다.

입경 분류된 토양의 RGB 영상 분석 및 딥러닝 기법을 활용한 AI 모델 개발 (Development of Deep Learning AI Model and RGB Imagery Analysis Using Pre-sieved Soil)

  • 김동석;송지수;정은지;황현정;박재성
    • 한국농공학회논문집
    • /
    • 제66권4호
    • /
    • pp.27-39
    • /
    • 2024
  • Soil texture is determined by the proportions of sand, silt, and clay within the soil, which influence characteristics such as porosity, water retention capacity, electrical conductivity (EC), and pH. Traditional classification of soil texture requires significant sample preparation including oven drying to remove organic matter and moisture, a process that is both time-consuming and costly. This study aims to explore an alternative method by developing an AI model capable of predicting soil texture from images of pre-sorted soil samples using computer vision and deep learning technologies. Soil samples collected from agricultural fields were pre-processed using sieve analysis and the images of each sample were acquired in a controlled studio environment using a smartphone camera. Color distribution ratios based on RGB values of the images were analyzed using the OpenCV library in Python. A convolutional neural network (CNN) model, built on PyTorch, was enhanced using Digital Image Processing (DIP) techniques and then trained across nine distinct conditions to evaluate its robustness and accuracy. The model has achieved an accuracy of over 80% in classifying the images of pre-sorted soil samples, as validated by the components of the confusion matrix and measurements of the F1 score, demonstrating its potential to replace traditional experimental methods for soil texture classification. By utilizing an easily accessible tool, significant time and cost savings can be expected compared to traditional methods.

YOLOv8 알고리즘 기반의 주행 가능한 도로 영역 인식과 실시간 추적 기법에 관한 연구 (Research on Drivable Road Area Recognition and Real-Time Tracking Techniques Based on YOLOv8 Algorithm)

  • 서정희
    • 한국전자통신학회논문지
    • /
    • 제19권3호
    • /
    • pp.563-570
    • /
    • 2024
  • 본 논문은 운전자의 운행 보조 역할로 주행 가능한 차선 영역을 인식하고 추적하는 방법을 제안한다. 주요 주제는 차량 내부의 앞 유리 중앙에 설치된 카메라를 통해 실시간으로 획득한 영상을 기반으로 컴퓨터 비전과 딥 러닝 기술을 활용하여 주행 가능한 도로 영역을 예측하는 심층 기반 네트워크를 설계한다. 본 연구는 YOLOv8 알고리즘을 이용하여 카메라에서 직접 획득한 데이터로 훈련한 새로운 모델을 개발하는 것을 목표한다. 실제 도로에서 자신의 차량의 정확한 위치를 실제 영상과 일치하게 시각화하여 주행 가능한 차선 영역을 표시 및 추적함으로써 운전자 운행의 보조하는 역할을 기대한다. 실험 결과, 대부분 주행 가능한 도로 영역의 추적이 가능했으나 밤에 비가 심하게 오는 경우와 같은 악천후에서 차선이 정확하게 인식되지 않는 경우가 발생하여 이를 해결하기 위한 모델의 성능 개선이 필요하다.

자율주행 차량 시뮬레이션에서의 강화학습을 위한 상태표현 성능 비교 (Comparing State Representation Techniques for Reinforcement Learning in Autonomous Driving)

  • 안지환;권태수
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제30권3호
    • /
    • pp.109-123
    • /
    • 2024
  • 딥러닝과 강화학습을 활용한 비전 기반 엔드투엔드 자율주행 시스템 관련 연구가 지속적으로 증가하고 있다. 일반적으로 이러한 시스템은 위치, 속도, 방향, 센서 데이터 등 연속적이고 고차원적인 차량의 상태를 잠재 특징 벡터로 인코딩하고, 이를 차량의 주행 정책으로 디코딩하는 두 단계로 구성된다. 도심 주행과 같이 다양하고 복잡한 환경에서는 Variational Autoencoder(VAE)나 Convolutional Neural Network(CNN)과 같은 네트워크를 이용한 효율적인 상태 표현 방법의 필요성이 더욱 부각된다. 본 논문은 차량의 이미지 상태 표현이 강화학습 성능에 미치는 영향을 분석하였다. CARLA 시뮬레이터 환경에서 실험을 수행하였고, 차량의 전방 카메라 센서로부터 취득한 RGB 이미지 및 Semantic Segmented 이미지를 각각 VAE와 Vision Transformer(ViT) 네트워크로 특징 추출하여 상태 표현 학습에 활용하였다. 이러한 방법론이 강화학습에 미치는 영향을 실험하여, 데이터 유형과 상태 표현 기법이 자율주행의 학습 효율성과 결정 능력 향상에 어떤 역할을 하는지를 실험하였다.

졸음 인식과 안전운전 보조시스템 구현 (Implementation of A Safe Driving Assistance System and Doze Detection)

  • 송혁;최진모;이철동;최병호;유지상
    • 대한전자공학회논문지SP
    • /
    • 제49권3호
    • /
    • pp.30-39
    • /
    • 2012
  • 본 논문에서는 검출된 운전자의 얼굴영역에서 눈의 형태를 인식하여 졸음 상태를 감지하는 기법을 개발하고 감지 결과에 따라 위험 상태를 알려주는 경보 시스템을 구현하고자 한다. 먼저 얼굴 검출에는 Haar 변환 기법을 이용하고 실험실환경, 차량환경 및 적외선 영상을 획득하여 다양한 조명 환경에서도 강인하도록 전처리 및 후처리 과정을 적용한다. 눈 검출에는 보통 한국인이라는 가정하에 눈의 위치 및 크기의 비례 구조 특성 등을 이용하여 후보 영역을 제한하고 트리구조에 대한 실험 결과로 고속 알고리즘을 구현하였다. 또한 졸음 상태를 인식하기 위해서는 눈의 개폐 형태를 검출할 수 있는 Hough 변환을 이용한 기법과 눈의 계폐에 따른 눈의 형태 비율을 이용한 기법을 새로이 제안하며, 눈이 감겨있는 시간을 측정하여 졸음 여부를 판단한다. 1단계 졸음 상태로 판단될 경우 통합 모니터링 인터페이스에서 운전자에게 경고음을 울리며 2단계 졸음 상태로 판단될 경우에는 CAN(Controller Area Network)을 통하여 안전벨트를 진동하게 함으로써 운전자에게 경고를 하는 시스템을 구현한다. 본 논문에서 제안하는 기법은 기존의 기법들과 비교하여 실험실 환경에서 평균 83.64% 이상의 검출률을 달성 하였으며, 실제 차량환경에서도 실험 결과를 통하여 평균적으로 우수한 결과를 보였다.

AVB 기반의 버스안전용 멀티뷰어의 FPGA 카메라모듈 설계 (Design of FPGA Camera Module with AVB based Multi-viewer for Bus-safety)

  • 김동진;신완수;박종배;강민구
    • 인터넷정보학회논문지
    • /
    • 제17권4호
    • /
    • pp.11-17
    • /
    • 2016
  • 본 논문에서는 버스안전을 위한 다중 HD 카메라 기반의 IP통신망 AVB(Audio Video Bridge) 이더넷 케이블을 연동한 FPGA(Xilinx Zynq702)로 멀티뷰어 플랫폼을 제안하였다. 이러한 AVB(IEEE802.1BA) 시스템은 차량용 네트워크에서 다중 HD 비디오와 오디오 디지털 신호의 실시간 전송이 가능하다. 제안한 멀티뷰어 플랫폼은 기존 이더넷 케이블 1Gbps전송과 2-선 100Mbps 스트림 전송방식을 통해 4개의 초광각 HD 카메라로 부터 H.264 비디오 신호를 다중화하기 위한 지연속도의 개선을 위해 FPGA로 설계하였다. 아울러, 차량용 HD 동영상 전송망에서 시간지연을 최소화하기 위한 AVB 플랫폼은 Zynq 702기반의 H.264 AVC 저지연 코덱의 설계 방안을 제안하였다. 이러한 H.264 AVC 코덱의 부호화/복호화 결과확인을 위해 JM 모델을 참조한 PSNR(Peak Signal-to-noise-ratio)을 분석하였다. 설계한 Zynq 702기반의 H.264 AVC CODEC은 다중 HD 카메라의 다중뷰어 동영상 손실 압축에서 화질 손실에 대한 PSNR은 이론 값과 유사한 HW 결과 값을 확인하였다. 이로서 제안한 AVB기반의 다중 HD 카메라 연동형 멀티뷰어 플랫폼은 H.264 AVC CODEC의 저지연 특성이 차량용 특성에 만족함으로서 버스안전을 위한 주변의 오디오와 비디오 영상감시가 가능할 것이다.

임베디드 보드에서의 CNN 모델 압축 및 성능 검증 (Compression and Performance Evaluation of CNN Models on Embedded Board)

  • 문현철;이호영;김재곤
    • 방송공학회논문지
    • /
    • 제25권2호
    • /
    • pp.200-207
    • /
    • 2020
  • CNN 기반 인공신경망은 영상 분류, 객체 인식, 화질 개선 등 다양한 분야에서 뛰어난 성능을 보이고 있다. 그러나, 많은 응용에서 딥러닝(Deep Learning) 모델의 복잡도 및 연산량이 방대해짐에 따라 IoT 기기 및 모바일 환경에 적용하기에는 제한이 따른다. 따라서 기존 딥러닝 모델의 성능을 유지하면서 모델 크기를 줄이는 인공신경망 압축 기법이 연구되고 있다. 본 논문에서는 인공신경망 압축기법을 통하여 원본 CNN 모델을 압축하고, 압축된 모델을 임베디드 시스템 환경에서 그 성능을 검증한다. 성능 검증을 위해 인공지능 지원 맞춤형 칩인 QCS605를 내장한 임베디드 보드에서 카메라로 입력한 영상에 대해서 원 CNN 모델과 압축 CNN 모델의 분류성능과 추론시간을 비교 분석한다. 본 논문에서는 이미지 분류 CNN 모델인 MobileNetV2, ResNet50 및 VGG-16에 가지치기(pruning) 및 행렬분해의 인공신경망 압축 기법을 적용하였고, 실험결과에서 압축된 모델이 원본 모델 분류 성능 대비 2% 미만의 손실에서 모델의 크기를 1.3 ~ 11.2배로 압축했을 뿐만 아니라 보드에서 추론시간과 메모리 소모량을 각각 1.2 ~ 2.1배, 1.2 ~ 3.8배 감소함을 확인했다.

색순응을 기반하여 관촬환경에 독립한 색재현 시스템 개발 (Watching environment-independent color reproduction system development based on color adaption)

  • 안성아;김종필;안석출
    • 한국인쇄학회지
    • /
    • 제21권2호
    • /
    • pp.43-53
    • /
    • 2003
  • As information-communication network has been developed rapidly, internet users' circumstances also have been changed for the better, in result, more information can be applied than before. At this moment, there are many differences between real color and reappeared color on the CRT. When we observe a material object, our eyes perceive the multiplied form of light sources and nature spectral reflection. However, when the photographed signal is reappeared, illumination at that time of photographing and spectral reflection of a material object are converted into signal, and this converted RGB signal is observed on the CRT under another illumination. At this time, RGB signal is the reflected result of illumination at that time of photographing Therefore, this signal is influenced by the illumination at present, so it can be perceived another color. To accord the colro reflections of another color source, the study has been reported by S.C.Ahn$^{[1]}$, which study is about the color reapperarance system using neuron network. Furthermore, color reappearing method become independent of its circumstances has been reported by Y.Miyake$^{[2]}$. This method can make the same illuminations even if the observe circumstances are changed. To assume the light sources of observe circumstances, the study about color reappearing system using CCD sensor also have been studied by S.C.Ahn$^{[3]}$. In these studies, a population is fixed, first, on ab coordinates of CIE L${\ast}$a${\ast}$b${\ast}$. Then, color reappearing can be possible using every population and existing digital camera. However, the color is changed curvedly, not straightly, according to value's changes on the ab coordinates of CIE L${\ast}$a${\ast}$b. To solve these problems in this study, first of all, Labeling techniques are introduced. Next, basis color-it is based on Munsell color system-is divided into 10 color fields. And then, 4 special color- skin color, grass color, sky color, and gray-are added to the basis color. Finally, 14 color fields are fixed. After analyzing of the principle elements of new-defined-color fields' population, utility value and propriety value are going to be examined in 3-Band system from now on.

  • PDF

Integrating UAV Remote Sensing with GIS for Predicting Rice Grain Protein

  • Sarkar, Tapash Kumar;Ryu, Chan-Seok;Kang, Ye-Seong;Kim, Seong-Heon;Jeon, Sae-Rom;Jang, Si-Hyeong;Park, Jun-Woo;Kim, Suk-Gu;Kim, Hyun-Jin
    • Journal of Biosystems Engineering
    • /
    • 제43권2호
    • /
    • pp.148-159
    • /
    • 2018
  • Purpose: Unmanned air vehicle (UAV) remote sensing was applied to test various vegetation indices and make prediction models of protein content of rice for monitoring grain quality and proper management practice. Methods: Image acquisition was carried out by using NIR (Green, Red, NIR), RGB and RE (Blue, Green, Red-edge) camera mounted on UAV. Sampling was done synchronously at the geo-referenced points and GPS locations were recorded. Paddy samples were air-dried to 15% moisture content, and then dehulled and milled to 92% milling yield and measured the protein content by near-infrared spectroscopy. Results: Artificial neural network showed the better performance with $R^2$ (coefficient of determination) of 0.740, NSE (Nash-Sutcliffe model efficiency coefficient) of 0.733 and RMSE (root mean square error) of 0.187% considering all 54 samples than the models developed by PR (polynomial regression), SLR (simple linear regression), and PLSR (partial least square regression). PLSR calibration models showed almost similar result with PR as 0.663 ($R^2$) and 0.169% (RMSE) for cloud-free samples and 0.491 ($R^2$) and 0.217% (RMSE) for cloud-shadowed samples. However, the validation models performed poorly. This study revealed that there is a highly significant correlation between NDVI (normalized difference vegetation index) and protein content in rice. For the cloud-free samples, the SLR models showed $R^2=0.553$ and RMSE = 0.210%, and for cloud-shadowed samples showed 0.479 as $R^2$ and 0.225% as RMSE respectively. Conclusion: There is a significant correlation between spectral bands and grain protein content. Artificial neural networks have the strong advantages to fit the nonlinear problem when a sigmoid activation function is used in the hidden layer. Quantitatively, the neural network model obtained a higher precision result with a mean absolute relative error (MARE) of 2.18% and root mean square error (RMSE) of 0.187%.

드론의 삼각 편대비행에서 포메이션 유지 및 충돌 방지 제어를 위한 연구 (A Study for Drone to Keep a Formation and Prevent Collisions in Case of Formation Flying)

  • 조은솔;이강환
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 춘계학술대회
    • /
    • pp.499-501
    • /
    • 2016
  • 본 논문에서는 드론의 삼각 편대비행에서 정해진 삼각형 포메이션을 유지하고 서로간의 충돌을 사전에 방지할 수 있는 방법을 제안한다. 기존 연구에서는 카메라로 입력된 빛을 이용하거나 영상을 처리해야만 드론의 충돌을 제어할 수 있었다. 그러나 빛이 없고 어두운 지역에서 드론이 영상을 처리하고 서로의 위치를 확인하는 것은 어려울 뿐만 아니라 서로의 존재를 확인하지 못하여 충돌하게 될 수도 있다. 따라서 본 논문에서는 ALPS(Ad hoc network Localized Positioning System) 알고리즘을 통해 구한 세 드론과의 거리와 상대좌표를 이용하여 서로 간의 충돌을 막아주는 새로운 알고리즘을 제안한다. 제안하는 알고리즘은 드론의 포메이션 삼각형의 중심과 측정된 각각의 드론의 좌표와의 거리를 정해진 일정한 값으로 유지하도록 한다. 따라서 정해진 포메이션 형태가 흐트러질 경우에는, 각 드론과 중심좌표의 거리를 일정하게 유지하도록 드론의 위치를 재설정한다. 모의실험의 결과 제안된 알고리즘이 적용된 시스템을 사용할 경우, 드론의 충돌을 사전에 방지함으로서 충돌로 인한 고장이나 사고를 막을 수 있을 것이라 기대된다.

  • PDF