• Title/Summary/Keyword: Real-Time Computer Vision

검색결과 352건 처리시간 0.029초

Development of a Real-Time Video Image Tracking Algorithm for Incident Detection

  • 오주택;민준영;허병도;김명섭
    • 한국ITS학회 논문지
    • /
    • 제7권4호
    • /
    • pp.49-60
    • /
    • 2008
  • 현재 비디오 영상처리시스템(VIPS: Video Image Processing System)은 실시간으로 들어오는 영상정보를 분석하여 유용한 정보를 제공하고, 하나의 카메라로 여러 차로를 동시에 감시할 수 있는 알고리즘으로 교통량, 속도뿐만 아니라 밀도 및 점유율 등 다양한 정보를 제공하나, 안전지대에서는 효과적이지 못한다. 그러나, 영상검지시스템에서 개별차량에 대한 추적시스템으로 개발할 경우 사고 및 차로 변경의 위험요소 감지 등 실시간으로 보다 다양한 정보를 제공할 수가 있다. 본 논문은 컴퓨터비전 기술을 이용하여 개별차량의 추적시스템을 개발하였으며, 이 시스템을 실제 도로영상에 적용하여 Tripwire에서 수집할 수 있는 교통정보뿐만 아니라 사고, 상충정보 등 다양한 정보를 제공한다. 본 연구의 검증을 위하여 개별차량 추적시스템으로 1) 돌발상황 감지 2) 급차로 변경과 같은 비정상적인 차량흐름의 경우를 감지하는 실험을 수행하였다.

  • PDF

경량화된 딥러닝 구조를 이용한 실시간 초고해상도 영상 생성 기술 (Deep Learning-based Real-Time Super-Resolution Architecture Design)

  • 안세현;강석주
    • 방송공학회논문지
    • /
    • 제26권2호
    • /
    • pp.167-174
    • /
    • 2021
  • 초고해상도 변환 문제에서 최근 딥러닝을 사용하면서 큰 성능 개선을 얻고 있다. 빠른 초고해상도 합성곱 신경망 (FSRCNN)은 딥러닝 기반 초고해상도 알고리즘으로 잘 알려져 있으며, 여러 개의 합성곱 층로 추출한 저 해상도의 입력 특징을 활용하여 역합성곱 층에서 초고해상도의 영상을 출력하는 알고리즘이다. 본 논문에서는 병렬 연산 효율성을 고려한 FPGA 기반 합성곱 신경망 가속기를 제안한다. 특히 역합성곱 층을 합성곱 층으로 변환하는 방법을 통해서 에너지 효율적인 가속기를 설계했다. 또한 제안한 방법은 FPGA 리소스를 고려하여 FSRCNN의 구조를 변형한 Optimal-FSRCNN을 제안한다. 사용하는 곱셈기의 개수를 FSRCNN 대비 3.47배 압축하였고, 초고해상도 변환 성능을 평가하는 지표인 PSNR은 FSRCNN과 비슷한 성능을 내고 있다. 이를 통해서 FPGA에 최적화된 네트워크를 구현하여 FHD 입력 영상을 UHD 영상으로 출력하는 실시간 영상처리 기술을 개발했다.

헬멧 착용 여부 및 쓰러짐 사고 감지를 위한 AI 영상처리와 알람 시스템의 구현 (Implementation of an alarm system with AI image processing to detect whether a helmet is worn or not and a fall accident)

  • 조용화;이혁재
    • 융합신호처리학회논문지
    • /
    • 제23권3호
    • /
    • pp.150-159
    • /
    • 2022
  • 본 논문은 실시간 영상 분석을 통해서 산업현장에서 활동하는 여러 근로자의 영상 객체를 추출해 내고, 추출된 이미지로 부터 개별 영상 분석을 통해 헬멧의 착용 여부와 낙상 사고 여부를 확인하는 방법을 구현한다. 근로자의 영상 객체를 탐지하기 위해서 딥러닝 기반 컴퓨터 비전 모델인 YOLO를 사용하였으며, 추출된 이미지를 이용하여 헬멧의 착용여부를 판단하기 위해 따로 5,000장의 다양한 헬멧 학습 데이터 이미지를 만들어서 사용하였다. 또한, 낙상사고 여부를 판단하기 위해서 Mediapipe의 Pose 실시간 신체추적 알고리즘을 사용하여 머리의 위치를 확인하고 움직이는 속도를 계산하여 쓰러짐 여부를 판단하였다. 결과에 신뢰성을 주기위한 방법으로 YOLO의 바운딩 박스의 크기를 구하여 객체의 자세를 유추하는 방법을 추가하고 구현하였다. 최종적으로 관리자에게 알림 서비스를 위하여 텔레그램 API Bot과 Firebase DB 서버를 구현하였다.

실시간 온라인 수업 및 시험 태도 데이터 세트 설계 및 구현 (Real-time Online Study and Exam Attitude Dataset Design and Implementation)

  • 김준식;이찬휘;송혁;권순철
    • 방송공학회논문지
    • /
    • 제27권1호
    • /
    • pp.124-132
    • /
    • 2022
  • 최근 코로나바이러스감염증-19(COVID-19)로 인해 온라인 원격 수업과 비대면 시험으로 인해 수업 태도 및 시험 부정행위에 대한 관리가 어려움을 겪고 있다. 따라서 온라인으로 학생들의 행동을 자동으로 인식하고 검출하는 시스템이 필요하다. 사람의 행동을 인식하는 행동 인식의 경우 컴퓨터 비전에서 많이 연구되는 기술 중 하나이다. 이러한 시스템을 개발하기 위해서는 온라인 수업 및 시험에서 주요 정보가 될 수 있는 사람의 팔 움직임 정보와 주변 물체에 대한 정보를 포함하는 데이터가 필요하다. 기존 데이터 세트는 여러 분야에 대해 분류를 하거나 일상생활 행동으로 구성되어 있어 본 시스템에 적용시키기에 어려움이 있다. 본 논문에서는 실시간으로 진행되는 온라인 시험 및 수업에서 태도를 분류할 수 있는 데이터 세트를 제시한다. 또한, 기존의 행동 인식 데이터 세트와의 비교를 통해 제안된 데이터 세트가 올바르게 구성되었는지를 보여준다.

TCP/IP프로세서를 이용한 다중 사용자 인터페이스 지원 인터넷 전원 콘센트의 설계 및 구현 (The Design and Implementation of Internet Outlet with Multiple User Interface Using TCP/IP Processor)

  • 백정현
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권9호
    • /
    • pp.103-112
    • /
    • 2012
  • 최근 인터넷에 접근할 수 있는 기반시설이 풍부하게 제공 되면서 전기전자 제품들을 인터넷에 연결하여 원격으로 감시하고 제어하려는 욕구가 증대 되고 있다. 그러나 기존의 제품들은 대부분 네트워크 인터페이스 미비로 인터넷 접속이 불가능하여 불편함이 많았다. 따라서 본 논문에서는 하드웨어 TCP/IP 프로세서를 사용하여 인터넷을 통하여 전원을 원격으로 제어할 수 있는 실시간 스케줄링 가능한 인터넷 전원콘센트를 설계하고 구현하였다. 구현된 제품은 하드웨어 TCP/IP 프로세서와 8비트의 소형 마이크로프로세서를 사용하여 구현이 가능하기 때문에 제작비용이 저렴하다. 또한, 환경설정 기능을 갖는 전용 제어프로그램과 웹페이지를 외부 플래시 메모리에 저장이 가능한 임베디드 웹서버, 안드로이드 스마트폰 애플리케이션, OpenCV 컴퓨터비전 라이브러리를 이용한 모션인식 제어환경 등 다양한 사용자 인터페이스를 구현하여 유무선 인터넷 환경에서 폭넓게 활용할 수 있다.

참조 템플릿 기반 실시간 이동체 영상을 이용한 대안적 탐지 방안 - 주차관리시스템을 대상으로 (Alternative Tracing Method for Moving Object Using Reference Template in Real-time Image - Focusing on Parking Management System)

  • 주용진;강이슬;함창학
    • 한국측량학회지
    • /
    • 제32권5호
    • /
    • pp.495-503
    • /
    • 2014
  • 주차장은 교통시스템의 일부분으로, 최근 차량이 급증하면서 주차장의 안전성과 효율적 운영이 중요해 지고 있다. 이동 차량을 탐지하여 주차 현황을 안내하기 위한 다양한 연구가 진행되어 왔지만 영상 내에 빠르게 이동하는 다수의 차량을 동시에 탐지하는 것은 여전히 도전적인 문제이다. 이에 본 연구에서는 공영 주차장이나 대형 주차장에 주차 구역이 분명하고 주차 구역 내에 감시 카메라가 설치되어있는 것에 착안하여, 참조 템플릿 기반 실시간 영상처리 기법을 이용한 무인 주차 가용 정보 제공 및 안내 시스템을 개발하고자 하였다. 즉, 주차 공간 내에 참조 표식 마커로써 주정차 중인 차량의 움직임과 상황을 인지하여 차량의 크기, 형태 등 직접적인 탐지 여부에 관계없이 주차 관제가 가능한 대안적 방법을 제시하였다. 또한, 주차 정보와 층별 주차 현황을 시뮬레이션하기 위한 프로토타입 시스템을 구현하여 본 연구에서 제시한 방법론의 실제 적용 가능성을 검토하고 성능 분석을 수행하였다. 결과적으로 실시간 영상 정보를 처리하여 주차장의 총 주차 공간 수, 주차된 차량 수와 같은 주차장 통계 정보의 저장 관리가 가능하였다. 향후, 본 연구 결과는 주차 상황 분석을 통해 주차 관리를 체계적이고 효율적으로 운영하는데 있어 비용 절감과 사용자 편의를 보다 증진 시킬 수 있을 것으로 기대된다.

PCA와 HMM을 이용한 실시간 립리딩 시스템의 설계 및 구현 (Design and Implementation of a Real-Time Lipreading System Using PCA & HMM)

  • 이지근;이은숙;정성태;이상설
    • 한국멀티미디어학회논문지
    • /
    • 제7권11호
    • /
    • pp.1597-1609
    • /
    • 2004
  • 립리딩은 잡음 환경에서 저하되는 음성 인식률의 보상과 음성을 청취하기 어려운 상황에서의 음성인식보조 수단으로 많은 연구가 시도되고 있다. 기존 립리딩 시스템은 인위적인 조명 환경이나 얼굴과 입술 추출을 위하여 미리 정해진 제한된 조건에서 실험되어 왔다. 본 논문에서는 화자의 움직임이 허용되고 컬러나 조명과 같은 환경 변화에 제한조건을 완화한 영상을 이용하여 실시간 립리딩 시스템을 구현하였다. 본 논문의 시스템은 범용으로 사용되는 PC 카메라를 통해 입력받은 영상에서 얼굴과 입술 영역을 실시간으로 검출한 후, 립리딩에 필요한 영상정보를 추출하고 이 입술 영상 정보를 이용하여 실시간으로 발성 단어를 인식할 수 있다. 얼굴과 입술 영역 검출을 위하여 조명환경에 독립성을 갖는 색도 히스토그램 모델을 이용하였고 움직이는 화자의 얼굴 추적을 위하여 평균 이동 알고리즘을 이용하였다. 검출된 입술 영역에서 학습과 인식에 필요한 영상 정보를 추출하기 위하여 PCA(Principal Component Analysis)를 사용하였고, 인식 알고리즘으로는 HMM을 이용하였다. 실험 결과 화자종속일 경우 90%의 인식률을 보였으며 잡음이 있는 음성과 합병하여 인식률 실험을 해 본 결과, 음성 잡음비에 따라서 음성 인식률을 약 40~85%까지 향상시킬 수 있었다.

  • PDF

퍼지기반 신경망모형을 이용한 대기행렬 검지 (Queue Detection using Fuzzy-Based Neural Network Model)

  • KIM, Daehyon
    • 대한교통학회지
    • /
    • 제21권2호
    • /
    • pp.63-70
    • /
    • 2003
  • 실시간 교차로의 대기행렬길이 검지는 지능형교통체계의 중요부분인 교통관제를 위해서 매우 중요하다. 특히 교통정보수집을 위한 영상기반 기술은 전통적인 루프검지기 또는 기타 타 검지기에 비하여 내재된 여러 이점 때문에 많은 연구가 진행되어 왔다. 그러나 현장 적용시 흔히 발생하는 영상에서의 잡음 및 주변 물체로부터 투영되는 음영 등에 의해 나타나는 차량의 오검지율을 줄이고 수집되는 교통정보의 신뢰도를 높이기 위해서는 보다 효과적인 알고리즘개발이 요구된다. 본 연구에서는 영상처리를 이용한 대기행렬길이 검지를 위한 알고리즘을 제시하였다. 실시간 데이터 수집 및 분석 그리고 패턴분석에 우수한 것으로 알려진 신경망 모형을 이용하였으며, 특히 시스템 신뢰성을 높이기 위하여 퍼지이론이 접목된 퍼지 뉴런모델인 Fuzzy ARTMAP을 모형에 도입하였다. 실험결과 본 연구에서 제시한 대기행렬 측정 방법은 매우 우수한 검지 능력을 보였으며, 대기행렬 검지뿐만 아니라 신뢰성 높은 차량검지 및 차종분류를 위해서도 활용할 수 있을 것으로 기대된다.

비전 기반 신체 제스처 인식을 이용한 상호작용 콘텐츠 인터페이스 (Interface of Interactive Contents using Vision-based Body Gesture Recognition)

  • 박재완;송대현;이칠우
    • 스마트미디어저널
    • /
    • 제1권2호
    • /
    • pp.40-46
    • /
    • 2012
  • 본 논문은 비전 기반 신체 제스처 인식 결과를 입력인터페이스로 사용하는 상호작용 콘텐츠에 대해 기술한다. 제작된 콘텐츠 는 아시아의 공통문화요소인 도깨비를 소재로 사용하여 지역 문화에 친숙하게 접근할 수 있도록 하였다. 그리고 콘텐츠를 구성 하는 시나리오는 도깨비와의 결투장면에서 사용자의 제스처 인식을 통해 결투를 진행하므로 사용자는 자연스럽게 콘텐츠 시나리오에 몰입할 수 있다. 시나리오의 후반부에서는 사용자는 시간과 공간이 다른 다중의 결말을 선택할 수 있다. 신체 제스처 인식 부분에서는 키넥트(KINECT)를 통해 얻을 수 있는 각 신체 부분의 3차원좌표를 이용하여 정지동작인 포즈를 활용한다. 비전기반 3차원 인체 포즈 인식 기술은 HCI(Human-Computer Interaction)에서 인간의 제스처를 전달하기 위한 방법으로 사용된다. 특수한 환경에서 단순한 2차원 움직임 포즈만 인식할 수 있는 2차원 포즈모델 기반 인식 방법에 비해 3차원 관절을 묘사한 포즈모델은 관절각에 대한 정보와 신체 부위의 모양정보를 선행지식으로 사용할 수 있어서 좀 더 일반적인 환경에서 복잡한 3차원 포즈도 인식할 수 있다는 장점이 있다. 인간이 사용하는 제스처는 정지동작인 포즈들의 연속적인 동작을 통해 표현이 가능하므로 HMM을 이용하여 정지동작 포즈들로 구성된 제스처를 인식하였다. 본 논문에서 기술한 체험형 콘텐츠는 사용자가 부가적인 장치의 사용 없이 제스처 인식 결과를 입력인터페이스로 사용하였으며 사용자의 몸동작만으로 자연스럽게 콘텐츠를 조작할 수 있도록 해준다. 본 논문에서 기술한 체험형 콘텐츠는 평소 접하기 어려운 도깨비를 이용하여 사용자와 실시간 상호작용이 가능케 함으로써 몰입도와 재미를 향상시키고자 하였다.

  • PDF

실시간 다중이동물체 추적에 의한 이동로봇의 위치개선 (Position Improvement of a Mobile Robot by Real Time Tracking of Multiple Moving Objects)

  • 진태석;이민중;탁한호;이인용;이준탁
    • 한국지능시스템학회논문지
    • /
    • 제18권2호
    • /
    • pp.187-192
    • /
    • 2008
  • 본 논문은 실내외 공간에서 인간을 포한함 이동물체의 영상정보를 이용하여 이동로봇의 자기위치를 인식하기 위한 방법을 제시하고 있다. 제시한 방법은 로봇자체의 DR센서 정보와 카메라에서 얻은 영상정보로부터 로봇의 위치추정방법을 결합한 것이다. 그리고 이동물체의 이전 위치정보와 관측 카메라의 모델을 사용하여 이동물체에 대한 영상프레임 좌표와 추정된 로봇위치간의 관계를 표현할 수 있는 식을 제시하고 있다. 또한 이동하는 인간과 로봇의 위치와 방향을 추정하기 위한 제어방법을 제시하고 이동로봇의 위치를 추정하기 위해서 칼만필터 방법을 적용하였다. 그리고 시뮬레이션 및 실험을 통하여 제시한 방법을 검증하였다.