• 제목/요약/키워드: Network Camera

검색결과 641건 처리시간 0.034초

졸음 인식과 안전운전 보조시스템 구현 (Implementation of A Safe Driving Assistance System and Doze Detection)

  • 송혁;최진모;이철동;최병호;유지상
    • 대한전자공학회논문지SP
    • /
    • 제49권3호
    • /
    • pp.30-39
    • /
    • 2012
  • 본 논문에서는 검출된 운전자의 얼굴영역에서 눈의 형태를 인식하여 졸음 상태를 감지하는 기법을 개발하고 감지 결과에 따라 위험 상태를 알려주는 경보 시스템을 구현하고자 한다. 먼저 얼굴 검출에는 Haar 변환 기법을 이용하고 실험실환경, 차량환경 및 적외선 영상을 획득하여 다양한 조명 환경에서도 강인하도록 전처리 및 후처리 과정을 적용한다. 눈 검출에는 보통 한국인이라는 가정하에 눈의 위치 및 크기의 비례 구조 특성 등을 이용하여 후보 영역을 제한하고 트리구조에 대한 실험 결과로 고속 알고리즘을 구현하였다. 또한 졸음 상태를 인식하기 위해서는 눈의 개폐 형태를 검출할 수 있는 Hough 변환을 이용한 기법과 눈의 계폐에 따른 눈의 형태 비율을 이용한 기법을 새로이 제안하며, 눈이 감겨있는 시간을 측정하여 졸음 여부를 판단한다. 1단계 졸음 상태로 판단될 경우 통합 모니터링 인터페이스에서 운전자에게 경고음을 울리며 2단계 졸음 상태로 판단될 경우에는 CAN(Controller Area Network)을 통하여 안전벨트를 진동하게 함으로써 운전자에게 경고를 하는 시스템을 구현한다. 본 논문에서 제안하는 기법은 기존의 기법들과 비교하여 실험실 환경에서 평균 83.64% 이상의 검출률을 달성 하였으며, 실제 차량환경에서도 실험 결과를 통하여 평균적으로 우수한 결과를 보였다.

AVB 기반의 버스안전용 멀티뷰어의 FPGA 카메라모듈 설계 (Design of FPGA Camera Module with AVB based Multi-viewer for Bus-safety)

  • 김동진;신완수;박종배;강민구
    • 인터넷정보학회논문지
    • /
    • 제17권4호
    • /
    • pp.11-17
    • /
    • 2016
  • 본 논문에서는 버스안전을 위한 다중 HD 카메라 기반의 IP통신망 AVB(Audio Video Bridge) 이더넷 케이블을 연동한 FPGA(Xilinx Zynq702)로 멀티뷰어 플랫폼을 제안하였다. 이러한 AVB(IEEE802.1BA) 시스템은 차량용 네트워크에서 다중 HD 비디오와 오디오 디지털 신호의 실시간 전송이 가능하다. 제안한 멀티뷰어 플랫폼은 기존 이더넷 케이블 1Gbps전송과 2-선 100Mbps 스트림 전송방식을 통해 4개의 초광각 HD 카메라로 부터 H.264 비디오 신호를 다중화하기 위한 지연속도의 개선을 위해 FPGA로 설계하였다. 아울러, 차량용 HD 동영상 전송망에서 시간지연을 최소화하기 위한 AVB 플랫폼은 Zynq 702기반의 H.264 AVC 저지연 코덱의 설계 방안을 제안하였다. 이러한 H.264 AVC 코덱의 부호화/복호화 결과확인을 위해 JM 모델을 참조한 PSNR(Peak Signal-to-noise-ratio)을 분석하였다. 설계한 Zynq 702기반의 H.264 AVC CODEC은 다중 HD 카메라의 다중뷰어 동영상 손실 압축에서 화질 손실에 대한 PSNR은 이론 값과 유사한 HW 결과 값을 확인하였다. 이로서 제안한 AVB기반의 다중 HD 카메라 연동형 멀티뷰어 플랫폼은 H.264 AVC CODEC의 저지연 특성이 차량용 특성에 만족함으로서 버스안전을 위한 주변의 오디오와 비디오 영상감시가 가능할 것이다.

임베디드 보드에서의 CNN 모델 압축 및 성능 검증 (Compression and Performance Evaluation of CNN Models on Embedded Board)

  • 문현철;이호영;김재곤
    • 방송공학회논문지
    • /
    • 제25권2호
    • /
    • pp.200-207
    • /
    • 2020
  • CNN 기반 인공신경망은 영상 분류, 객체 인식, 화질 개선 등 다양한 분야에서 뛰어난 성능을 보이고 있다. 그러나, 많은 응용에서 딥러닝(Deep Learning) 모델의 복잡도 및 연산량이 방대해짐에 따라 IoT 기기 및 모바일 환경에 적용하기에는 제한이 따른다. 따라서 기존 딥러닝 모델의 성능을 유지하면서 모델 크기를 줄이는 인공신경망 압축 기법이 연구되고 있다. 본 논문에서는 인공신경망 압축기법을 통하여 원본 CNN 모델을 압축하고, 압축된 모델을 임베디드 시스템 환경에서 그 성능을 검증한다. 성능 검증을 위해 인공지능 지원 맞춤형 칩인 QCS605를 내장한 임베디드 보드에서 카메라로 입력한 영상에 대해서 원 CNN 모델과 압축 CNN 모델의 분류성능과 추론시간을 비교 분석한다. 본 논문에서는 이미지 분류 CNN 모델인 MobileNetV2, ResNet50 및 VGG-16에 가지치기(pruning) 및 행렬분해의 인공신경망 압축 기법을 적용하였고, 실험결과에서 압축된 모델이 원본 모델 분류 성능 대비 2% 미만의 손실에서 모델의 크기를 1.3 ~ 11.2배로 압축했을 뿐만 아니라 보드에서 추론시간과 메모리 소모량을 각각 1.2 ~ 2.1배, 1.2 ~ 3.8배 감소함을 확인했다.

색순응을 기반하여 관촬환경에 독립한 색재현 시스템 개발 (Watching environment-independent color reproduction system development based on color adaption)

  • 안성아;김종필;안석출
    • 한국인쇄학회지
    • /
    • 제21권2호
    • /
    • pp.43-53
    • /
    • 2003
  • As information-communication network has been developed rapidly, internet users' circumstances also have been changed for the better, in result, more information can be applied than before. At this moment, there are many differences between real color and reappeared color on the CRT. When we observe a material object, our eyes perceive the multiplied form of light sources and nature spectral reflection. However, when the photographed signal is reappeared, illumination at that time of photographing and spectral reflection of a material object are converted into signal, and this converted RGB signal is observed on the CRT under another illumination. At this time, RGB signal is the reflected result of illumination at that time of photographing Therefore, this signal is influenced by the illumination at present, so it can be perceived another color. To accord the colro reflections of another color source, the study has been reported by S.C.Ahn$^{[1]}$, which study is about the color reapperarance system using neuron network. Furthermore, color reappearing method become independent of its circumstances has been reported by Y.Miyake$^{[2]}$. This method can make the same illuminations even if the observe circumstances are changed. To assume the light sources of observe circumstances, the study about color reappearing system using CCD sensor also have been studied by S.C.Ahn$^{[3]}$. In these studies, a population is fixed, first, on ab coordinates of CIE L${\ast}$a${\ast}$b${\ast}$. Then, color reappearing can be possible using every population and existing digital camera. However, the color is changed curvedly, not straightly, according to value's changes on the ab coordinates of CIE L${\ast}$a${\ast}$b. To solve these problems in this study, first of all, Labeling techniques are introduced. Next, basis color-it is based on Munsell color system-is divided into 10 color fields. And then, 4 special color- skin color, grass color, sky color, and gray-are added to the basis color. Finally, 14 color fields are fixed. After analyzing of the principle elements of new-defined-color fields' population, utility value and propriety value are going to be examined in 3-Band system from now on.

  • PDF

Integrating UAV Remote Sensing with GIS for Predicting Rice Grain Protein

  • Sarkar, Tapash Kumar;Ryu, Chan-Seok;Kang, Ye-Seong;Kim, Seong-Heon;Jeon, Sae-Rom;Jang, Si-Hyeong;Park, Jun-Woo;Kim, Suk-Gu;Kim, Hyun-Jin
    • Journal of Biosystems Engineering
    • /
    • 제43권2호
    • /
    • pp.148-159
    • /
    • 2018
  • Purpose: Unmanned air vehicle (UAV) remote sensing was applied to test various vegetation indices and make prediction models of protein content of rice for monitoring grain quality and proper management practice. Methods: Image acquisition was carried out by using NIR (Green, Red, NIR), RGB and RE (Blue, Green, Red-edge) camera mounted on UAV. Sampling was done synchronously at the geo-referenced points and GPS locations were recorded. Paddy samples were air-dried to 15% moisture content, and then dehulled and milled to 92% milling yield and measured the protein content by near-infrared spectroscopy. Results: Artificial neural network showed the better performance with $R^2$ (coefficient of determination) of 0.740, NSE (Nash-Sutcliffe model efficiency coefficient) of 0.733 and RMSE (root mean square error) of 0.187% considering all 54 samples than the models developed by PR (polynomial regression), SLR (simple linear regression), and PLSR (partial least square regression). PLSR calibration models showed almost similar result with PR as 0.663 ($R^2$) and 0.169% (RMSE) for cloud-free samples and 0.491 ($R^2$) and 0.217% (RMSE) for cloud-shadowed samples. However, the validation models performed poorly. This study revealed that there is a highly significant correlation between NDVI (normalized difference vegetation index) and protein content in rice. For the cloud-free samples, the SLR models showed $R^2=0.553$ and RMSE = 0.210%, and for cloud-shadowed samples showed 0.479 as $R^2$ and 0.225% as RMSE respectively. Conclusion: There is a significant correlation between spectral bands and grain protein content. Artificial neural networks have the strong advantages to fit the nonlinear problem when a sigmoid activation function is used in the hidden layer. Quantitatively, the neural network model obtained a higher precision result with a mean absolute relative error (MARE) of 2.18% and root mean square error (RMSE) of 0.187%.

드론의 삼각 편대비행에서 포메이션 유지 및 충돌 방지 제어를 위한 연구 (A Study for Drone to Keep a Formation and Prevent Collisions in Case of Formation Flying)

  • 조은솔;이강환
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2016년도 춘계학술대회
    • /
    • pp.499-501
    • /
    • 2016
  • 본 논문에서는 드론의 삼각 편대비행에서 정해진 삼각형 포메이션을 유지하고 서로간의 충돌을 사전에 방지할 수 있는 방법을 제안한다. 기존 연구에서는 카메라로 입력된 빛을 이용하거나 영상을 처리해야만 드론의 충돌을 제어할 수 있었다. 그러나 빛이 없고 어두운 지역에서 드론이 영상을 처리하고 서로의 위치를 확인하는 것은 어려울 뿐만 아니라 서로의 존재를 확인하지 못하여 충돌하게 될 수도 있다. 따라서 본 논문에서는 ALPS(Ad hoc network Localized Positioning System) 알고리즘을 통해 구한 세 드론과의 거리와 상대좌표를 이용하여 서로 간의 충돌을 막아주는 새로운 알고리즘을 제안한다. 제안하는 알고리즘은 드론의 포메이션 삼각형의 중심과 측정된 각각의 드론의 좌표와의 거리를 정해진 일정한 값으로 유지하도록 한다. 따라서 정해진 포메이션 형태가 흐트러질 경우에는, 각 드론과 중심좌표의 거리를 일정하게 유지하도록 드론의 위치를 재설정한다. 모의실험의 결과 제안된 알고리즘이 적용된 시스템을 사용할 경우, 드론의 충돌을 사전에 방지함으로서 충돌로 인한 고장이나 사고를 막을 수 있을 것이라 기대된다.

  • PDF

인터넷 개인 생방송을 위한 Scalable Clustering A/V Server 개발 (Development of a Scalable Clustering A/V Server for the Internet Personal-Live Broadcasting)

  • 이상문;강신준;민병석;김학배;박진배
    • 정보처리학회논문지C
    • /
    • 제9C권1호
    • /
    • pp.107-114
    • /
    • 2002
  • 오늘날 컴퓨터 시스템의 성능향상과 초고속망의 확대 보급으로 인터넷에서의 멀티미디어 서비스가 대중화되고 있다. 이러한 멀티미디어 서비스의 한 분야인 인터넷 방송은 오디오/비디오(Audio/video)를 포함하는 기존 지상과 방송 서비스는 물론 양방향 대화형 통신을 가능케 하고 시간 및 공간의 제약 없이 언제나 서비스를 이용할 수 있어서 사용자 및 활용 분야도 크게 확대되고 있다. 본 논문에서는 이와 같은 서비스를 위하여 개인이 쉽게 이용할 수 있는 인터넷 생방송 시스템을 개발하였다. 전문적인 장비나 제한된 사용자에 의해 생방송이 이루어지는 것이 아니라, 화상카메라, 사운드 카드 등 기본적인 멀티미디어 기기만 갖추고 있으면 누구나 본 생방송 시스템을 통하여 생방송 개설 및 참여가 가능하다. 방송 참여자의 증가에 따라 방송 채널 및 그룹이 확장 가능하며, 클러스터의 부분적인 고장 발생 시에도 중단 없이 서비스가 가능한 고 가용성을 보장해 준다. 또한, 사용자의 네트웍 환경을 고려한 방송 데이터 전송을 위하여 방송 모드 전환을 제공해 준다.

스마트 시티 환경에서 대규모 영상 모니터링을 위한 IP 비디오 월 시스템의 설계 및 구현 (Design and Implementation of IP Video Wall System for Large-scale Video Monitoring in Smart City Environments)

  • 양선진;박재표;양승민
    • 한국산학기술학회논문지
    • /
    • 제20권9호
    • /
    • pp.7-13
    • /
    • 2019
  • 일반적인 비디오 월 시스템과 달리 스마트 시티 환경에서 통합 모니터링에 사용하는 비디오 월 시스템은 다양하고 많은 영상과 이미지, 텍스트를 동시에 표시할 수 있어야 한다. 본 논문에서는 동시에 모니터링 가능한 영상 개수에 제한이 없고 모니터 화면 배치를 제약 없이 구성할 수 있는 IP 기반 비디오 월 시스템을 제안한다. 제안하는 시스템은 다수의 디스플레이 서버와 월 제어기, 영상 공급 장치로 구성되어 IP 네트워크를 통해 서로 통신한다. 디스플레이 서버는 영상 공급 장치로부터 직접 영상 스트림을 수신하고 디코딩한 후 장착된 모니터 화면에 표출하기 때문에 비디오 월 전체 화면에 더 많은 영상을 동시에 표시할 수 있다. 한 영상을 복수의 디스플레이 서버에 장착된 여러 화면에 걸쳐 표시할 때는 한 디스플레이 서버만 영상 스트림을 수신해서 IP 멀티캐스트 통신을 이용해 다른 디스플레이 서버에게 전달하는 방식을 이용해 네트워크 부하를 줄이고 영상 프레임을 동기화한다. 실험 결과, 영상 개수가 증가함에 따라 더 많은 수의 디스플레이 서버로 구성된 시스템이 더 나은 디코딩과 렌더링 성능을 보이고 디스플레이 서버를 계속 확장해도 성능 저하가 없음을 확인했다.

PoseNet과 GRU를 이용한 Skeleton Keypoints 기반 낙상 감지 (Human Skeleton Keypoints based Fall Detection using GRU)

  • 강윤규;강희용;원달수
    • 한국산학기술학회논문지
    • /
    • 제22권2호
    • /
    • pp.127-133
    • /
    • 2021
  • 낙상 판단을 위한 최근 발표되는 연구는 RNN(Recurrent Neural Network)을 이용한 낙상 동작 특징 분석과 동작 분류에 집중되어 있다. 웨어러블 센서를 기반으로 한 접근 방식은 높은 탐지율을 제공하나 사용자의 착용 불편으로 보편화 되지 못했고 최근 영상이나 이미지 기반에 딥러닝 접근방식을 이용한 낙상 감지방법이 소개 되었다. 본 논문은 2D RGB 저가 카메라에서 얻은 영상을 PoseNet을 이용해 추출한 인체 골격 키포인트(Keypoints) 정보로 머리와 어깨의 키포인트들의 위치와 위치 변화 가속도를 추정함으로써 낙상 판단의 정확도를 높이기 위한 감지 방법을 연구하였다. 특히 낙상 후 자세 특징 추출을 기반으로 Convolutional Neural Networks 중 Gated Recurrent Unit 기법을 사용하는 비전 기반 낙상 감지 솔루션을 제안한다. 인체 골격 특징 추출을 위해 공개 데이터 세트를 사용하였고, 동작분류 정확도를 높이는 기법으로 코, 좌우 눈 그리고 양쪽 귀를 포함하는 머리와 어깨를 하나의 세그먼트로 하는 특징 추출 방법을 적용해, 세그먼트의 하강 속도와 17개의 인체 골격 키포인트가 구성하는 바운딩 박스(Bounding Box)의 높이 대 폭의 비율을 융합하여 실험을 하였다. 제안한 방법은 기존 원시골격 데이터 사용 기법보다 낙상 탐지에 보다 효과적이며 실험환경에서 약 99.8%의 성공률을 보였다.

열화상 카메라를 활용한 딥러닝 기반의 1·3종 차량 분류 (Class 1·3 Vehicle Classification Using Deep Learning and Thermal Image)

  • 정유석;정도영
    • 한국ITS학회 논문지
    • /
    • 제19권6호
    • /
    • pp.96-106
    • /
    • 2020
  • 본 연구에서는 루프 센서를 통한 교통량 수집방식의 오류를 해결하기 위해 1종(승용차)과 3종(일반 트럭)의 구분이 어려운 부분 및 영상 이미지의 단점을 보완하기 위해 도로변에 열화상 카메라를 설치하여 영상 이미지를 수집하였다. 수집된 영상 이미지를 레이블링 단계를 거쳐 1종(승용차)과 3종(일반 트럭)의 학습데이터를 구성하였다. 정지영상을 대상으로 labeling을 진행하였으며, 총 17,536대의 차량 이미지(640x480 pixel)에 대해 시행하였다. 열화상 영상 기반의 차종 분류를 달성하기 위해 CNN(Convolutional Neural Network)을 이용하였으며, 제한적인 데이터량과 품질에도 불구하고 97.7%의 분류정확도를 나타내었다. 이는 AI 영상인식 기반의 도로 교통량 데이터 수집 가능성을 보여주는 것이라 판단되며, 향후 더욱더 많은 학습데이터를 축적한다면 12종 차종 분류가 가능할 것이다. 또한, AI 기반 영상인식으로 도로 교통량의 12종 차종뿐만 아니라 다양한(친환경 차량, 도로 법규 위반차량, 이륜자동차 등) 차종 분류를 할 수 있을 것이며, 이는 국가정책, 연구, 산업 등의 통계 데이터로 활용도가 높을 것으로 판단된다.