• 제목/요약/키워드: Computer Vision

검색결과 2,208건 처리시간 0.025초

리테일 마케팅 고도화를 위한 CCTV 영상 데이터 기반의 AI 융합 응용 서비스 활용 모델 연구 (A Study on the Application Model of AI Convergence Services Using CCTV Video for the Advancement of Retail Marketing)

  • 김종율;김혁중
    • 디지털융복합연구
    • /
    • 제19권5호
    • /
    • pp.197-205
    • /
    • 2021
  • 최근 리테일 산업계에서는 COVID-19 등의 다양한 외부 환경 위협으로부터의 대응과 AI 기술을 활용한 경쟁력을 갖추기 위한 정보기술 융합 및 활용 요구가 증가하고 있으나 리테일 산업에서의 데이터를 활용하기 위한 연구와 응용 서비스의 활용사례가 매우 부족하다. 본 연구는 CCTV 영상 데이터 기반의 AI 활용 응용 서비스 활용 사례연구로 리테일 공간에서의 CCTV 영상 데이터 수집, 객체 탐지 및 추적 AI 모델 활용, 실시간 추적된 객체와 트래킹 데이터를 저장하기 위한 시계열 데이터베이스 활용, 시계열 데이터를 활용한 모니터링, 리테일 공간의 혼잡도와 관심도를 분석하기 위한 히트맵, 리테일 공간에서의 실시간 상황 모니터링, COVID-19와 같은 사회적 위협으로부터의 접촉자 분석과 추적을 위한 사회적 거리 두기 현황, 비인가자의 보안 구역의 접근 모니터링 애플리케이션을 설계하고 이를 실제 구현하여 리테일 공간에서의 CCTV 영상 데이터를 활용한 애플리케이션 설계를 통해 CCTV 영상 데이터 기반의 AI 융합 응용 서비스 활용 모델을 제시하였으며, 실제 구현을 통해 설계된 활용 모델을 검증하였다.

AlphaPose를 활용한 LSTM(Long Short-Term Memory) 기반 이상행동인식 (LSTM(Long Short-Term Memory)-Based Abnormal Behavior Recognition Using AlphaPose)

  • 배현재;장규진;김영훈;김진평
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권5호
    • /
    • pp.187-194
    • /
    • 2021
  • 사람의 행동인식(Action Recognition)은 사람의 관절 움직임에 따라 어떤 행동을 하는지 인식하는 것이다. 이를 위해서 영상처리에 활용되는 컴퓨터 비전 태스크를 활용하였다. 사람의 행동인식은 딥러닝과 CCTV를 결합한 안전사고 대응서비스로서 안전관리 현장 내에서도 적용될 수 있다. 기존연구는 딥러닝을 활용하여 사람의 관절 키포인트 추출을 통한 행동인식 연구가 상대적으로 부족한 상태이다. 또한 안전관리 현장에서 작업자를 지속적이고 체계적으로 관리하기 어려운 문제점도 있었다. 본 논문에서는 이러한 문제점들을 해결하기 위해 관절 키포인트와 관절 움직임 정보만을 이용하여 위험 행동을 인식하는 방법을 제안하고자 한다. 자세추정방법(Pose Estimation)의 하나인 AlphaPose를 활용하여 신체 부위의 관절 키포인트를 추출하였다. 추출된 관절 키포인트를 LSTM(Long Short-Term Memory) 모델에 순차적으로 입력하여 연속적인 데이터로 학습을 하였다. 행동인식 정확률을 확인한 결과 "누워있기(Lying Down)" 행동인식 결과의 정확도가 높음을 확인할 수 있었다.

대조적 학습을 활용한 주요 프레임 검출 방법 (Key Frame Detection Using Contrastive Learning)

  • 박경태;김원준;이용;장래영;최명석
    • 방송공학회논문지
    • /
    • 제27권6호
    • /
    • pp.897-905
    • /
    • 2022
  • 비디오 영상 내 주요 프레임(Key Frame) 검출은 컴퓨터 비전 분야에서 꾸준히 연구되고 있는 분야 중 하나이다. 최근 심층학습(Deep Learning) 기술의 발전으로 비디오 영상에서의 주요 프레임 검출 성능이 향상 되었으나, 다양한 종류의 영상 콘텐츠 및 복잡한 배경으로 인해 여전히 효과적인 학습이 어려운 문제점이 있다. 본 논문에서는 대조적 학습(Contrastive Learning)과 메모리 뱅크(Memory Bank)를 통해 영상의 주요 프레임을 검출하는 새로운 방법을 제안한다. 제안하는 방법은 입력 프레임과 같은 영상 내 이웃하는 프레임 간 차이와 다른 영상 내 프레임과의 차이를 기반으로 특징 추출 신경망을 학습한다. 이와 같은 대조적 학습을 통해 메모리 뱅크에 주요 프레임을 저장 및 갱신하여 영상의 중복성을 효과적으로 제거한다. 비디오 영상 데이터셋에서의 실험 결과를 통해 제안하는 방법의 성능을 검증하였다.

모바일 스테레오 비전 시스템을 위한 다양한 스테레오 정합 기법의 오차율 비교 (Comparison of error rates of various stereo matching methods for mobile stereo vision systems)

  • 이주영;이광엽
    • 전기전자학회논문지
    • /
    • 제26권4호
    • /
    • pp.686-692
    • /
    • 2022
  • 본 논문에서는 스테레오 영상정합을 위하여 개선된 영역기반, 에너지 기반 알고리즘, 학습기반 구조의 정합 오류율을 비교하였다. 영역기반으로 census transform(CT), 에너지 기반으로 belief propagation(BP) 알고리즘을 선정하였다. 기존 알고리즘을 개선하고 모바일 시스템에서 스테레오 영상정합에 활용가능 하도록 임베디드 프로세서 환경에서 구현하였다. 비교 대상이 되는 학습기반의 경우에 도 적은 규모의 파라메터를 활용하는 신경망 구조를 채택하였다. 세 가지 정합방법의 오류율 비교를 위해 테스트 이미지로 Middlebury 데이터 세트 가운데 Tsukuba를 선정하고 정합 성능의 정확한 비교를 위해 비폐색, 불연속, 시차 오류율 등으로 세분화하였다. 실험 결과 CT 매칭의 오차율은 기존 알고리즘과 수정된 알고리즘으로 비교하였을 때 약 11% 성능 개선되었다. BP 매칭은 오류율에서 기존 CT 에 비하여 약 87% 우수하였다. 신경망을 이용한 학습기반과 비교 하였을 때 BP 매칭이 약 31% 우수함을 보였다.

STAR-24K: A Public Dataset for Space Common Target Detection

  • Zhang, Chaoyan;Guo, Baolong;Liao, Nannan;Zhong, Qiuyun;Liu, Hengyan;Li, Cheng;Gong, Jianglei
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권2호
    • /
    • pp.365-380
    • /
    • 2022
  • The target detection algorithm based on supervised learning is the current mainstream algorithm for target detection. A high-quality dataset is the prerequisite for the target detection algorithm to obtain good detection performance. The larger the number and quality of the dataset, the stronger the generalization ability of the model, that is, the dataset determines the upper limit of the model learning. The convolutional neural network optimizes the network parameters in a strong supervision method. The error is calculated by comparing the predicted frame with the manually labeled real frame, and then the error is passed into the network for continuous optimization. Strongly supervised learning mainly relies on a large number of images as models for continuous learning, so the number and quality of images directly affect the results of learning. This paper proposes a dataset STAR-24K (meaning a dataset for Space TArget Recognition with more than 24,000 images) for detecting common targets in space. Since there is currently no publicly available dataset for space target detection, we extracted some pictures from a series of channels such as pictures and videos released by the official websites of NASA (National Aeronautics and Space Administration) and ESA (The European Space Agency) and expanded them to 24,451 pictures. We evaluate popular object detection algorithms to build a benchmark. Our STAR-24K dataset is publicly available at https://github.com/Zzz-zcy/STAR-24K.

High-Speed Maritime Object Detection Scheme for the Protection of the Aid to Navigation

  • Lee, Hyochan;Song, Hyunhak;Cho, Sungyoon;Kwon, Kiwon;Park, Sunghyun;Im, Taeho
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권2호
    • /
    • pp.692-712
    • /
    • 2022
  • Buoys used for Aid to Navigation systems are widely used to guide the sea paths and are powered by batteries, requiring continuous battery replacement. However, since human labor is required to replace the batteries, humans can be exposed to dangerous situation, including even collision with shipping vessels. In addition, Maritime sensors are installed on the route signs, so that these are often damaged by collisions with small and medium-sized ships, resulting in significant financial loss. In order to prevent these accidents, maritime object detection technology is essential to alert ships approaching buoys. Existing studies apply a number of filters to eliminate noise and to detect objects within the sea image. For this process, most studies directly access the pixels and process the images. However, this approach typically takes a long time to process because of its complexity and the requirements of significant amounts of computational power. In an emergent situation, it is important to alarm the vessel's rapid approach to buoys in real time to avoid collisions between vessels and route signs, therefore minimizing computation and speeding up processes are critical operations. Therefore, we propose Fast Connected Component Labeling (FCCL) which can reduce computation to minimize the processing time of filter applications, while maintaining the detection performance of existing methods. The results show that the detection performance of the FCCL is close to 30 FPS - approximately 2-5 times faster, when compared to the existing methods - while the average throughput is the same as existing methods.

얼굴 열화상 기반 감정인식을 위한 CNN 학습전략 (Divide and Conquer Strategy for CNN Model in Facial Emotion Recognition based on Thermal Images)

  • 이동환;유장희
    • 한국소프트웨어감정평가학회 논문지
    • /
    • 제17권2호
    • /
    • pp.1-10
    • /
    • 2021
  • 감정인식은 응용 분야의 다양성으로 많은 연구가 이루어지고 있는 기술이며, RGB 영상은 물론 열화상을 이용한 감정인식의 필요성도 높아지고 있다. 열화상의 경우는 RGB 영상과 비교해 조명 문제에 거의 영향을 받지 않는 장점이 있으나 낮은 해상도로 성능 높은 인식 기술을 필요로 한다. 본 논문에서는 얼굴 열화상 기반 감정인식의 성능을 높이기 위한 Divide and Conquer 기반의 CNN 학습전략을 제안하였다. 제안된 방법은 먼저 분류가 어려운 유사 감정 클래스를 confusion matrix 분석을 통해 동일 클래스 군으로 분류하도록 학습시키고, 다음으로 동일 클래스 군으로 분류된 감정 군을 실제 감정으로 다시 인식하도록 문제를 나누어서 해결하는 방법을 사용하였다. 실험을 통하여, 제안된 학습전략이 제시된 모든 감정을 하나의 CNN 모델에서 인식하는 경우보다 모든 실험에서 높은 인식성능을 보이는 것을 확인하였다.

2D 영상센서 기반 6축 로봇 팔 원격제어 (A Remote Control of 6 d.o.f. Robot Arm Based on 2D Vision Sensor)

  • 현웅근
    • 한국전자통신학회논문지
    • /
    • 제17권5호
    • /
    • pp.933-940
    • /
    • 2022
  • 2차원 영상 센서를 이용하여 조종자의 3차원 손 위치를 인식하고 이를 기반으로 원격으로 6축 로봇팔을 제어하는 시스템을 개발하였다. 시스템은 물체의 영상정보를 인식하는 2차원 영상 센서 모듈, 영상정보를 로봇팔 제어 명령어로 전환하는 알고리즘, 자체 제작한 6축 로봇팔 및 제어 시스템으로 구성된다. 영상 센서는 조종자가 착용한 장갑의 모양과 색을 인지하여 크기 및 위치정보를 출력하게 되며, 본 연구에서는 이러한 위치 및 물체를 둘러싼 크기 정보를 이용하여 로봇 선단의 속도를 제어한다. 연구 방법의 검증은 자체 제작된 6축 로봇으로 실행하였으며, 조종자의 손동작 조종에 의한 실험을 통해 제안한 영상정보 제어 및 로봇 선단 제어 방법이 성공적으로 동작함을 확인하였다.

딥러닝을 이용한 나노소재 투과전자 현미경의 초해상 이미지 획득 (Super-Resolution Transmission Electron Microscope Image of Nanomaterials Using Deep Learning)

  • 남충희
    • 한국재료학회지
    • /
    • 제32권8호
    • /
    • pp.345-353
    • /
    • 2022
  • In this study, using deep learning, super-resolution images of transmission electron microscope (TEM) images were generated for nanomaterial analysis. 1169 paired images with 256 × 256 pixels (high resolution: HR) from TEM measurements and 32 × 32 pixels (low resolution: LR) produced using the python module openCV were trained with deep learning models. The TEM images were related to DyVO4 nanomaterials synthesized by hydrothermal methods. Mean-absolute-error (MAE), peak-signal-to-noise-ratio (PSNR), and structural similarity (SSIM) were used as metrics to evaluate the performance of the models. First, a super-resolution image (SR) was obtained using the traditional interpolation method used in computer vision. In the SR image at low magnification, the shape of the nanomaterial improved. However, the SR images at medium and high magnification failed to show the characteristics of the lattice of the nanomaterials. Second, to obtain a SR image, the deep learning model includes a residual network which reduces the loss of spatial information in the convolutional process of obtaining a feature map. In the process of optimizing the deep learning model, it was confirmed that the performance of the model improved as the number of data increased. In addition, by optimizing the deep learning model using the loss function, including MAE and SSIM at the same time, improved results of the nanomaterial lattice in SR images were achieved at medium and high magnifications. The final proposed deep learning model used four residual blocks to obtain the characteristic map of the low-resolution image, and the super-resolution image was completed using Upsampling2D and the residual block three times.

합성곱 신경망을 이용한 손상된 볼트의 이미지 분류 (Image Classification of Damaged Bolts using Convolution Neural Networks)

  • Lee, Soo-Byoung;Lee, Seok-Soon
    • 항공우주시스템공학회지
    • /
    • 제16권4호
    • /
    • pp.109-115
    • /
    • 2022
  • 딥러닝 기법과 컴퓨터 비전 기술을 융합한 합성곱 신경망 알고리즘은 고성능 컴퓨팅 시스템을 기반으로 이미지 데이터의 분류를 가용하게 한다. 본 논문에서는 합성곱 신경망 알고리즘을 대표적인 딥러닝 프레임워크인 텐서플로와 학습 기법을 이용하여 구현하고 이미지 분류 문제에 적용한다. 모델의 지도학습에 필요한 데이터는 동일 종류의 볼트를 이용하여 나사산이 정상인 볼트와 나사산이 손상된 볼트로 구분하여 이미지를 생성하였다. 소량의 이미지 데이터를 이용한 학습 모델은 좋은 성능으로 볼트의 손상을 탐지하였다. 그리고 모델의 내부 구성에 따른 학습 성능을 비교하기 위해 합성곱 신경망 내 컨볼루션 레이어의 개수를 변경하고 과적합 회피기법을 선택 적용하여 이미지 분류 성능을 확인하였다.