• 제목/요약/키워드: 카메라 기반 주행

검색결과 165건 처리시간 0.021초

팽창된 합성곱 계층 연산 풀링을 이용한 멀티 모달 네트워크 성능 향상 방법 (Improved Multi-modal Network Using Dilated Convolution Pyramid Pooling)

  • 박준영;호요성
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2018년도 추계학술대회
    • /
    • pp.84-86
    • /
    • 2018
  • 요즘 자율주행과 같은 최신 기술의 발전과 더불어 촬영된 영상 장면에 대한 깊이있는 이해가 필요하게 되었다. 특히, 기계학습 기술이 발전하면서 카메라로 찍은 영상에 대한 의미론적 분할 기술에 대한 연구도 활발히 진행되고 있다. FuseNet은 인코더-디코더 구조를 이용하여 장면 내에 있는 객체에 대한 의미론적 분할 기술을 적용할 수 있는 신경망 모델이다. FuseNet은 오직 RGB 입력을 받는 기존의 FCN보다 깊이정보까지 활용하여 RGB 정보를 기반으로 추출한 특징지도와의 요소합 연산을 통해 멀티 모달 구조를 구현했다. 의미론적 분할 연구에서는 객체의 전역 컨텍스트가 고려되는 것이 중요한데, 이를 위해 여러 계층을 깊게 쌓으면 연산량이 많아지는 단점이 있다. 이를 극복하기 위해서 기존의 합성곱 방식을 벗어나 새롭게 제안된 팽창 합성곱 연산(Dilated Convolution)을 이용하면 객체의 수용 영역이 효과적으로 넓어지고 연산량이 적어질 수 있다. 본 논문에서는 컨볼루션 연산의 새로운 방법론적 접근 중 하나인 팽창된 합성곱 연산을 이용해 의미론적 분할 연구에서 새로운 멀티 모달 네트워크의 성능 향상 방법을 적용하여 계층을 더 깊게 쌓지 않더라도 파라미터의 증가 없이 해상도를 유지하면서 네트워크의 전체 성능을 향상할 수 있는 최적화된 방법을 제안한다.

  • PDF

마이크로서비스 기반의 클라우드 엣지 AI 추론 서비스 개발 및 연구 (Development and Study of Cloud-Edge AI Inference Service Based on Microservices)

  • 서지현;장수민;차재근;최현화;김대원;김선욱
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.78-80
    • /
    • 2022
  • 최근 딥러닝을 이용한 영상 분석은 자율주행, 감시카메라 등 다양한 서비스에 필수적으로 활용되고 있으며 실시간 처리 및 보안 요소를 만족하기 위해 기존의 클라우드 컴퓨팅 방식의 단점을 개선한 클라우드 엣지 컴퓨팅 방식을 적용하는 사례가 크게 증가하고 있다. 하지만 사용자 및 단말과 가까운 위치에서 딥러닝 추론을 진행하는 클라우드 엣지 서버는 클라우드 서버와 비교하여 컴퓨팅 자원이 충분하지 않을 경우가 많으며 기존의 딥러닝 모델을 그대로 클라우드 엣지 환경에 적용하는 것은 자원 활용 측면에서 여러가지 문제점들을 갖고 있다. 따라서 본 논문에서는 마이크로서비스 구조를 통해 자원을 보다 유연하게 활용할 수 있도록 개선된 딥러닝 모델로 대규모의 클라이언트 요청을 처리 가능한 동영상 데이터 추론 서비스인 G-Edge AI 추론 서비스 개발에 대해 설명한다.

파이썬과 로봇을 활용한 인공지능(AI) 교육 프로그램 개발 (Development of Artificial Intelligence Instructional Program using Python and Robots)

  • 유인환;전재천
    • 한국정보교육학회:학술대회논문집
    • /
    • 한국정보교육학회 2021년도 학술논문집
    • /
    • pp.369-376
    • /
    • 2021
  • 인공지능(AI) 기술의 발전에 따라 많은 분야에서 인공지능 활용 방안에 대한 논의가 활발하게 일어나고 있으며 교육 분야에서도 인공지능 인재 양성을 위한 각종 정책이 추진되고 있다. 본 연구에서는 인공지능 기술을 활용한 로봇 프로그래밍 프레임워크를 제안하고 이를 기반으로 머신러닝(Machine Learning) 분야에서 높은 빈도로 활용되는 파이썬(Python)과 교육 현장의 활용도가 높은 교육용 로봇을 활용하여 인공지능(AI) 교육 프로그램을 제안하였다. 국제자동차공학회(SAE)에서 제시하는 자율주행자동차 수준(0~5단계)을 4단계로 단순화하고 이를 기반으로 로봇에 부착된 카메라가 선(객체)을 인지(Perception)하고 검출(Object detection)하여 스스로 움직일 수 있는 라인 디텍터(Line Detector)를 만드는 것을 목표로 하였다. 개발된 프로그램은 단순히 특정 프로그래밍 언어를 활용하여 주어진 문제를 해결하는 정형화된 형태가 아니라 생활 속의 복잡하고 비구조화된 문제를 자기주도적으로 정의하고 인공지능(AI) 기술을 기반으로 해결하는 경험을 가지는데 그 의의가 있다.

  • PDF

실외 주행 로봇의 위치 추정을 위한 3 차원 물체 인식 (3D Object Recognition for Localization of Outdoor Robotic Vehicles)

  • 백승민;김재웅;이장원;;이석한
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2008년도 학술대회 1부
    • /
    • pp.200-204
    • /
    • 2008
  • 본 논문에서는 지능형 무인 운송 시스템의 위치 인식 문제를 풀기 위한 방법으로, 실외 환경에서 보이는 건물 혹은 건물 입구의 상대적 위치와 자세 추정이 가능한 파티클 필터 기반 3 차원 물체 인식 방법을 제안한다. 제안하는 파티클 필터에 기반한 인식 시스템은 다양한 인식 증거들을 연속 영상에서 융합 및 모델 매칭을 함으로써 강인한 3 차원 물체 인식 및 자세 추정이 가능하다. 제안하는 방법은, 적합한 인식 증거들을 수집/선택하고, 다양한 인식 증거들로 부터 나타나는 인식 대상의 자세를 3 차원 공간상의 확률적인 파티클로 표현하며, 파티클 필터링을 통하여 연속 영상 상의 다양한 인식 증거들을 융합하는 것을 특징으로 한다. 스테레오 카메라를 이용한 실험을 통하여, 제안하는 방법이 실외 건물의 기하학적 특정을 인식 증거로 활용한 효율적인 3 차원 인식 및 자세 추정을 수행하는 것은 보여준다.

  • PDF

영상 기반 변위 계측장치의 현장 적용 성능 평가 (On-site Performance Evaluation of a Vision-based Displacement Measurement System)

  • 조수진;심성한;김은성
    • 한국산학기술학회논문지
    • /
    • 제15권9호
    • /
    • pp.5854-5860
    • /
    • 2014
  • 본 연구에서는 대표적인 토목구조물인 교량에서 영상 기반 변위 계측장치(VDMS)를 이용하여 변위를 측정하고, 고가의 변위측정장비인 LDV와의 비교를 통하여 그 현장 적용 성능을 평가하였다. 본 연구에서 사용한 VDMS는 카메라와 마커, 프레임 그래버, 노트북으로 구성되었으며, 마커를 구조물에 부착하여 그 영상을 촬영하고 평면 호모그래피 기법을 이용하여 마커가 부착된 구조물의 변위를 측정하는 장치이다. 개발된 VDMS의 성능 검증을 위하여 우선 소형 구조물을 이용한 간단한 실내 실험을 수행하였다. 다음으로 실제 철도교량에서 KTX를 다양한 조건으로 주행하고, 그에 의하여 발생한 변위를 VDMS과 LDV를 이용하여 계측한 뒤, 얻어진 두 변위를 비교하여 VDMS의 현장 적용 성능을 평가하였다.

비전 기반 고정밀 차량 측위 기술 (Vision-Based High Accuracy Vehicle Positioning Technology)

  • 조상일;이재성
    • 한국통신학회논문지
    • /
    • 제41권12호
    • /
    • pp.1950-1958
    • /
    • 2016
  • 최근 활발히 연구되고 있는 차세대 지능형교통시스템(C-ITS), 자율주행 자동차 등 교통관련 IT기술 분야에 있어 차량의 위치를 정밀하게 측정하는 기술은 매우 중요하다. 도로위의 차량 측위를 위한 기술은 GPS 가 대표적이나 도심지로 가면 주위에 고층건물이 많아 GPS 신호가 반사되어 심한 경우는 2~300 m의 오차가 발생할 정도로 정확도가 매우 떨어진다. 따라서 본 논문에서는 비전기반의 고정밀 차량측위 기술을 제안한다. 개략적인 처리과정은 고정된 카메라로부터 입력받은 영상 속에 관심 영역을 설정한 후 영역 내 차량 객체 검출(Vehicle Detection)을 수행하여 객체가 점유하는 도로영역을 계산, 미리 정의된 Homography변환행렬을 이용하여 지도영상으로 사용할 항공시점(Aerial View) 상의 점들로 변환하여 측위를 수행한다. 측위성능분석결과 평균적으로 약 20cm이내의 높은 정확도를 가지고 있으며 최대 오차역시 44.72cm를 넘지 않았다. 또한 $22-25_{FPS}$ 의 빠른 처리로 실시간 측위가 가능함을 확인하였다.

버스 승객의 안전한 하차를 위한 컴퓨터비전 기반의 차량 탐지 시스템 개발 (Computer Vision-based Method of detecting a Approaching Vehicle or the Safety of a Bus Passenger Getting off)

  • 이광순;이경복;노광현;한민홍
    • 융합신호처리학회논문지
    • /
    • 제6권1호
    • /
    • pp.1-7
    • /
    • 2005
  • 본 논문은 컴퓨터 비전 기반의 인식 기법으로 주간 시내도로에 정차된 버스와 보도 사이로 접근하는 측후방 차량을 탐지하는 시스템을 설명한다. 이 시스템은 승객의 안전한 하차를 위해 버스 운전자와 승객에게 차량의 접근 유무를 알려준다. 버스의 측후방 영상은 버스가 정차할 때마다 버스 중앙 출입문 상단에 장착된 카메라에서 입력된다. 이 영상에서 버스와 보도 사이에 탐색영역을 설정하고 이 영역에서 영상의 변화와 소벨 필터링으로 차량을 탐지한다. 탐지된 차량의 중심점을 잡은 후, 위치 및 가로 세로의 크기를 이용하여 거리, 속도, 방향을 알아낸다. 이 정보를 이용하여 하차하는 승객에게 위험한 상황이라 판단될 경우, 운전자와 승객에게 위험을 알려준다. 실험결과로 시내 주행시 87% 이상의 탐지율을 나타내었다.

  • PDF

ROS 기반 지능형 무인 배송 로봇 시스템의 구현 (Implementation of ROS-Based Intelligent Unmanned Delivery Robot System)

  • 공성진;이원창
    • 전기전자학회논문지
    • /
    • 제27권4호
    • /
    • pp.610-616
    • /
    • 2023
  • 본 논문에서는 Robot Operating System(ROS) 기반의 모바일 매니퓰레이터(Manipulator)를 이용한 무인 배송 로봇 시스템을 구현하고 시스템 구현을 위해 사용된 기술에 대해 소개한다. 로봇은 엘리베이터를 이용해 건물 내부에서 자율주행이 가능한 모바일 로봇과 진공 펌프를 부착한 Selective Compliance Assembly Robot Arm(SCARA)-Type의 매니퓰레이터로 구성된다. 로봇은 매니퓰레이터에 부착된 카메라를 이용하여 이미지 분할과 모서리 검출을 통해 배송물을 들어올리기 위한 위치와 자세를 결정할 수 있다. 제안된 시스템은 스마트폰 앱 및 ROS와 연동된 웹서버를 통해 배송 현황을 조회하고 로봇의 실시간 위치를 파악할 수 있도록 사용자 인터페이스를 가지고 있으며, You Only Look Once(YOLO)와 Optical Character Recognition(OCR)을 통해 배송 스테이션에서 배송물과 주소지를 인식한다. 아울러 4층 건물 내부에서 진행한 배송 실험을 통해 시스템의 유효성을 검증하였다.

과적 화물차 단속을 위한 Mask-RCNN기반 축조작 검지 기술 개발 (Development of Mask-RCNN Based Axle Control Violation Detection Method for Enforcement on Overload Trucks)

  • 박현석;조용성;김영남;김진평
    • 한국ITS학회 논문지
    • /
    • 제21권5호
    • /
    • pp.57-66
    • /
    • 2022
  • 도로관리청은 고속도로 진·출입 톨게이트 및 본선에 저속 WIM 또는 고속 WIM을 설치하여 과적차량을 단속하고 있으나, 근래 과적 화물차가 가변축을 불법 조작하여 도로관리청의 과적차량 단속시스템을 지능적으로 회피하는 운행이 증가하고 있다. 과적 검문소 진입 시에는 차축을 모두 내려 정상 통과하고 본선 주행 시에는 가변축을 불법으로 들어 축하중 10톤을 초과하여 과적 운행하는 방식이다. 이에 본 연구는 도로변에 차량 옆면 촬영 카메라를 설치하여 도로 주행 중인 화물차의 가변축 상태를 검지하는 기술을 개발하였다. 과적차량 검문소의 계중정보 연계 시 검문소 진출 후 차축을 들어 과적 운행하는 차량을 단속할 수 있는 기반기술이다. 제안기술은 제2서해안고속도로 송산마도IC~마도JC 구간 노변에서 취득된 영상을 학습데이터로 가공하고 Mask RCNN 알고리즘을 활용하여 타이어를 인식하였으며 인식된 타이어들을 배열하고 높이차를 측정하는 방식으로 타이어의 들림 여부를 판단하였다.

어안렌즈를 이용한 비전 기반의 이동 로봇 위치 추정 및 매핑 (Vision-based Mobile Robot Localization and Mapping using fisheye Lens)

  • 이종실;민홍기;홍승홍
    • 융합신호처리학회논문지
    • /
    • 제5권4호
    • /
    • pp.256-262
    • /
    • 2004
  • 로봇이 자율주행을 하는데 있어 중요한 요소는 로봇 스스로 위치를 추정하고 동시에 주위 환경에 대한 지도를 작성하는 것이다. 본 논문에서는 어안렌즈를 이용한 비전 기반 위치 추정 및 매핑 알고리즘을 제안한다. 로봇에 어안렌즈가 부착된 카메라를 천정을 바라볼 수 있도록 부착하여 스케일 불변 특징을 갖는 고급의 영상 특징을 구하고, 이 특징들을 맵 빌딩과 위치 추정에 이용하였다. 전처리 과정으로 어안렌즈를 통해 입력된 영상을 카메라 보정을 행하여 축방향 왜곡을 제거하고 레이블링과 컨벡스헐을 이용하여 보정된 영상에서 천정영역과 벽영역으로 분할한다. 최초 맵 빌딩시에는 분할된 영역에 대해 특징점을 구하고 맵 데이터베이스에 저장한다. 맵 빌딩이 종료될 때까지 연속하여 입력되는 영상에 대해 특징점들을 구하고 맵과 매칭되는 점들을 찾고 매칭되지 않은 점들에 대해서는 기존의 맵에 추가하는 과정을 반복한다. 위치 추정은 맵 빌딩 과정과 맵 상에서 로봇의 위치를 찾는데 이용된다. 로봇의 위치에서 구해진 특징점들은 로봇의 실제 위치를 추정하기 위해 기존의 맵과 매칭을 행하고 동시에 기존의 맵 데이터베이스는 갱신된다. 제안한 방법을 적용하면 50㎡의 영역에 대한 맵 빌딩 소요 시간은 2분 이내, 위치 추정시 위치 정확도는 ±13cm, 로봇의 자세에 대한 각도 오차는 ±3도이다.

  • PDF