• 제목/요약/키워드: Moving Objects Data Model

검색결과 72건 처리시간 0.029초

어파인-자기 회귀 모델과 강인 통계를 사용한 교통 표지판 추적 (Road Sign Tracking using Affine-AR Model and Robust Statistics)

  • 윤창용;천민규;이희진;김은태;박민용
    • 대한전자공학회논문지SP
    • /
    • 제46권5호
    • /
    • pp.126-134
    • /
    • 2009
  • 본 논문은 움직이는 차 안에서 교통 표지판을 추적하는 영상 기반 시스템을 기술한다. 제안된 시스템은 복잡한 환경에서 강인한 추적의 성능을 위해 파티클 필터를 기반으로 하는 기본 구조를 가진다. 실제 환경에서 표지판을 실시간으로 추적하는 경우, 장애물에 의한 겹침 현상과 빠르게 변하는 도로 상황 때문에 시계열 데이터인 상태 정보를 예측하는 것은 많은 어려움이 있다. 따라서 본 논문에서는 이러한 단점을 해결하기 위하여 어파인 변환의 파라미터를 상태 정보로 사용한 자기 회귀 모델을 파티클 필터의 상태 전이 모델로써 사용하고, 강인 통계를 사용하여 장애물에 의한 겹침 현상을 판단하여 추적 성능을 향상시키는 알고리즘을 제안한다. 본 논문의 실험 결과에서는 본 논문에서 제안된 방법이 주행 중 실시간 추적을 위하여 효과적이며, 장애물에 의해 표지판이 겹치는 경우에도 추적이 잘 수행됨을 보인다.

실시간 다중이동물체 추적에 의한 이동로봇의 위치개선 (Position Improvement of a Mobile Robot by Real Time Tracking of Multiple Moving Objects)

  • 진태석;이민중;탁한호;이인용;이준탁
    • 한국지능시스템학회논문지
    • /
    • 제18권2호
    • /
    • pp.187-192
    • /
    • 2008
  • 본 논문은 실내외 공간에서 인간을 포한함 이동물체의 영상정보를 이용하여 이동로봇의 자기위치를 인식하기 위한 방법을 제시하고 있다. 제시한 방법은 로봇자체의 DR센서 정보와 카메라에서 얻은 영상정보로부터 로봇의 위치추정방법을 결합한 것이다. 그리고 이동물체의 이전 위치정보와 관측 카메라의 모델을 사용하여 이동물체에 대한 영상프레임 좌표와 추정된 로봇위치간의 관계를 표현할 수 있는 식을 제시하고 있다. 또한 이동하는 인간과 로봇의 위치와 방향을 추정하기 위한 제어방법을 제시하고 이동로봇의 위치를 추정하기 위해서 칼만필터 방법을 적용하였다. 그리고 시뮬레이션 및 실험을 통하여 제시한 방법을 검증하였다.

스테레오 카메라 기반의 적응적인 공간좌표 검출 기법을 이용한 자율 이동로봇 시스템 (Autonomous Mobile Robot System Using Adaptive Spatial Coordinates Detection Scheme based on Stereo Camera)

  • 고정환;김성일;김은수
    • 한국통신학회논문지
    • /
    • 제31권1C호
    • /
    • pp.26-35
    • /
    • 2006
  • 본 논문에서는 지능적인 경로 계획을 위한 스테레오 카메라 기반의 공간좌표 검출 기법을 이용한 자율 이동 로봇 시스템을 제안하였다. 우선 스테레오 카메라로부터 입력된 영상 중 좌 영상에 YCbCr 컬러 모델 및 무게 중심법을 이용하여 이동중인 보행자의 얼굴 영역과 중심좌표를 검출하고, 검출된 좌표 값에 따라 스테레오 카메라의 능동적인 로봇 제어를 통해 이동하는 보행자를 실시간적으로 검출하게 된다. 다음으로, 로봇구동에 의해 추적 제어된 스테레오 카메라의 좌, 우 영상간의 시차정보와 스테레오 카메라 내부 변환관계를 통해 깊이 정보를 검출한 후, 검출된 깊이 지도로부터 각 열에 존재하는 최소값을 이용한 2차원 공간좌표를 검출하여 이동 로봇과 보행자간의 거리와 위치좌표는 물론 다른 물체들과의 상대 거리를 산출하게 되며, 산출된 위치 좌표를 토대로 이동 로봇의 지능적인 경로 추정 및 판단에 따라 자율적인 주행을 수행하게 된다. 실시간적으로 입력되는 240 프레임의 스테레오 영상을 사용한 실험결과, 이동 로봇과 전방에 존재하는 장애물간의 거리 및 보행자와 장애물간 상대거리의 계산치와 측정치간의 오차가 평균 $2.19\%$$1.52\%$이하로 각각 유지됨으로써 경로 계획을 위한 공간좌표 검출에 기반을 둔 실질적인 이동 로봇 시스템의 구현 가능성을 제시하였다.

이동 객체의 실시간 연속 질의를 위한 모바일 클라이언트-서버 시스템 (Mobile Client-Server System for Realtime Continuous Query of Moving Objects)

  • 주해종;박영배;최창훈
    • 한국컴퓨터정보학회논문지
    • /
    • 제11권6호
    • /
    • pp.289-298
    • /
    • 2006
  • 무선 네트워크(Wireless Network)의 약한 연결성 및 접속단절, 모바일 클라이언트의 이동성. 모바일 클라이언트의 휴대성으로 인해 발생하는 모바일 데이터베이스 시스템(Mobile Database System) 관련 이슈들과 이 문제들을 해결하기 위한 연구들이 한창이다. 이동 컴퓨팅은 언제 어디서나 원하는 모든 정보를 이용할 수 있는 사용자의 편의성이나 성능 면에서의 요구를 만족시키고 있지만, 데이터 관리 측면에서는 해결되어야만 하는 많은 문제점들을 안고 있다. 본 논문은 모바일 클라이언트-서버(Mobile Client-Server) 환경에서 모바일 데이터베이스 시스템 특성상 가질 수 있는 무선 네트워크의 약한 연결성 및 접속성 단절로 인한 데이터베이스 비축(Database Hoarding)과 관련된 문제 공유 데이터(Shared Data)의 일관성(Consistency)유지 문제, 그리고 로그 최적화 문제를 해결하기 위한 모바일 연속 질의 처리 시스템(MCQPS : Mobile Continuous Query Processing System)을 포함하는 새로운 모바일 클라이언트-서버 시스템을 설계하는데 목적이 있다. 또한. MCQPS의 효율성 증명을 위해 C-I-S(Client-Intercept -Server) 모델과의 성능비교를 통해 제안한 시스템이 우수하다는 것을 입증한다. 그리고 실시간 연속 질의를 위해 제안한 색인 구조와 기법의 효율성을 입증하기 위해 다양한 실험을 수행한다.

  • PDF

U-Learning 스킴 : 새로운 웹 기반 교육 기술 (U-Learning Scheme : A New Web-based Educational Technology)

  • 김혜진
    • 한국산학기술학회논문지
    • /
    • 제12권12호
    • /
    • pp.5486-5492
    • /
    • 2011
  • 본 연구는 언제 어디서나 교육이 가능하도록 하는 유비쿼터스 컴퓨팅 기술의 개념에 기반하여 유비쿼터스 학습 환경의 모형을 제안한다. 유비쿼터스 학습 환경은 환경 친화적 학습 스킴이며, 지리학적으로 떨어져있는 환경에서 디지털 매체를 사용하여 학생의 학습을 지원하는 것이다. U-Learning 모형은 웹 기반의 E-Learning 시스템이며, 학습자들이 유비쿼터스 학습 환경및 시스템과의 상호작용을 통해 지식과 기술을 습득하도록 하는 것이다. 교육은 학생 중심이지만, 학생은 학습 프로세스를 인지하지 못할 수도 있다. 소스 데이터는 내재된 객체로 존재하게 되지만, 학생들은 학습하기 위해 아무것도 할 필요가 없으며, 학생들이 움직이거나 학습 환경에 접할 때 장비 및 임베디드 컴퓨터들은 통신을 통해 학습 자료를 제공하게 된다.

상호작용 및 사실감을 위한 3D/IBR 기반의 통합 VR환경 (An Integrated VR Platform for 3D and Image based Models: A Step toward Interactivity with Photo Realism)

  • 윤자영;김정현
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제6권4호
    • /
    • pp.1-7
    • /
    • 2000
  • 가상세계를 저작하기 위한 일반적인 방법은 3차원 모델을 사용하여 객체를 만들고, 그 3차원 객체들을 조직하기 위하여 "장면 그래프(scene graph)"라는 자료구조를 사용하는 것이다. 최근 가상현실의 또 다른 플랫폼으로 이미지 기반 렌더링이 대두되고 있는데, 이 것은 사진과 같은 사실감을 줄 수 있다는 큰 장점을 가진 반면 상호작용의 한계로 인하여 아직까지는 간단한 항해 시스템 등에서만 사용하고 있다. 이 논문은 객체/장면 표현에 대한 위의 두 접근방법의 장점 병합하여, 3차원 모델과 다양한 이미지 기반 객체/장면을 정의하고 이 것들을 함께 렌더링 할 수 있는 장면 그래프 구조를 제안하였다. 또한 Shade등 [1]이 이미 제안한 것처럼, 한 객체에 대한 여러 단계의 LOD(level of detail)를 표현하기 위하여, 서로 다른 다양한 표현방법을 사용하였다. 예를 들면, 동일한 객체지만 가까운 거리에 위치할 때는 3차원 모델을 보여주고, 중간정도 떨어져 있는 경우 빌보드(billboard)의 형태로 보여주며, 아주 멀리 있을 때는 환경 맵(environment map)의 한 부분으로 보여줄 수 있다. 이러한 혼합된 플랫폼을 사용하는 가장 큰 목적은 이미지 기반의 가상환경에 3차원 모델을 포함시킴으로써 상호작용의 한계를 극복하는 것이다. 이러한 플랫폼을 만들기 위하여 몇 가지 선행해야 할 기술적인 과제들이 있다. 다양한 이미지 기반 기술을 유지할 수 있는 장면 그래프의 노드를 디자인하고, 적절한 LOD나 표현을 선택할 수 있는 기준을 정립하며, 그들 사이의 전환을 처리해야 함은 물론, 적절한 상호작용 방법을 구현하고, 전체적인 장면을 올바르게 렌더링 하는 것을 보장할 수 있어야 한다. 현재 우리는 Sense8사의 WorldToolKit 의 장면 그래프 구조에 환경 맵, 빌보드, 움직이는 텍스쳐(moving textures)와 스프라이트(sprites), 그림 속으로의 여행(Tour-into-the-Picture)", view interpolated 객체를 위한 새로운 노드를 추가하였다. 시점으로부터의 거리나 이미지 공간상의 척도를 사용하여 적절한 LOD를 선택하였으며, 사용자가 객체의 내부깊이를 인지하는 거리를 기준으로 객체를 3차원 모델로 보여줄 것인지 이미지로 보여줄 것인지 결정하였다. 또한 상호작용 중에는 객체가 얼마나 떨어져 있는지에 관계없이 3차원 모델이 있다면 그것을 사용하도록 하였다. 마지막으로, 이론적으로 유도한 스위칭 규칙이 유효한지 실험을 하였으며, 긍정적인 결과를 얻었다.

  • PDF

RGB-D 모델을 이용한 강건한 객체 탐지 및 추적 방법 (A Robust Object Detection and Tracking Method using RGB-D Model)

  • 박서희;전준철
    • 인터넷정보학회논문지
    • /
    • 제18권4호
    • /
    • pp.61-67
    • /
    • 2017
  • 최근 지능형 CCTV는 빅 데이터, 인공지능 및 영상 분석과 같은 분야와 결합하여 다양한 이상 행위들을 탐지하고 보행자와 같은 객체의 전반적인 상황을 분석할 수 있으며, 이러한 지능형 영상 감시 기능에 대한 영상 분석 연구가 활발히 진행되고 있는 추세이다. 그러나 일반적으로 2차원 정보를 이용하는 CCTV 영상은 위상학적 정보 부족으로 인해 객체 오 인식과 같은 한계가 존재한다. 이러한 문제는 두 대의 카메라를 사용하여 생성된 객체의 깊이 정보를 영상에 추가함으로써 해결 할 수 있다. 본 논문에서는 가우시안 혼합기법을 사용하여 배경 모델링을 수행하고, 모델링 된 배경에서 전경을 분할하여 움직이는 객체의 존재 여부를 탐지한다. RGB 정보 기반 분할 결과를 이용하여 깊이 정보 기반 분할을 수행하기 위해 두 대의 카메라를 사용하여 스테레오 기반 깊이 지도를 생성한다. RGB 기반으로 분할된 영역을 깊이 정보를 추출하기 위한 도메인으로 설정하고, 도메인 내부에서 깊이 기반 분할을 수행한다. 강건하게 분할된 객체의 중심점을 탐지하고 방향을 추적하기 위해 가장 기본적인 객체 추적 방법인 CAMShift 기법을 적용하여 객체의 움직임을 추적한다. 실험을 통하여 제안된 RGB-D 모델을 이용한 객체 탐지 및 추적 방법의 우수성을 입증하였다.

구형 물체를 이용한 다중 RGB-D 카메라의 간편한 시점보정 (Convenient View Calibration of Multiple RGB-D Cameras Using a Spherical Object)

  • 박순용;최성인
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제3권8호
    • /
    • pp.309-314
    • /
    • 2014
  • 물체의 360도 방향에서 다수의 RGB-D(RGB-Depth) 카메라를 이용하여 깊이영상을 획득하고 3차원 모델을 생성하기 위해서는 RGB-D 카메라 간의 3차원 변환관계를 구하여야 한다. 본 논문에서는 구형 물체를 이용하여 4대의 RGB-D 카메라 사이의 변환관계를 간편하게 구할 수 있는 시점보정(view calibration) 방법을 제안한다. 기존의 시점보정 방법들은 평면 형태의 체크보드나 코드화된 패턴을 가진 3차원 물체를 주로 사용함으로써 패턴의 특징이나 코드를 추출하고 정합하는 작업에 상당한 시간이 걸린다. 본 논문에서는 구형 물체의 깊이영상과 사진영상을 동시에 사용하여 간편하게 시점을 보정할 수 있는 방법을 제안한다. 우선 하나의 구를 모델링 공간에서 연속적으로 움직이는 동안 모든 RGB-D 카메라에서 구의 깊이영상과 사진영상을 동시에 획득한다. 다음으로 각 RGB-D 카메라의 좌표계에서 획득한 구의 3차원 중심좌표를 월드좌표계에서 일치되도록 각 카메라의 외부변수를 보정한다.

객체 인식 모델 기반 전동 이동 보조기용 GIS 정보 생성 (GIS Information Generation for Electric Mobility Aids Based on Object Recognition Model)

  • 우제승;홍순기;박동석;박준모
    • 융합신호처리학회논문지
    • /
    • 제23권4호
    • /
    • pp.200-208
    • /
    • 2022
  • 본 연구에서는 객체 인식 모델을 활용하여 전동 이동 보조기를 이용하는 교통약자를 위한 자동 정보 수집 체계 및 지리정보 구축 알고리즘을 구현하고자 한다. 장애인의 이동 중 만날 수 있는 객체를 인식하면서 좌표정보와 함께 획득하고 사진정보를 저장하여 기존의 장애인용 지리정보 보다 개선된 이동 경로 선택용 지도정보를 제공하고자 한다. 데이터 획득을 위한 수집 프로세스는 HW 계층을 포함하여 총 4가지 계층으로 구성되어 있으며, 영상 정보와 위치정보를 수집하여 서버로 송신하고 이를 인식하고 분류하는 과정을 통해 지리정보 생성에 필요한 데이터를 추출한다. 생성된 알고리즘은 실제 배리어프리존 일대에서 주행 실험을 실시하고 이 과정에서 실제 데이터의 수집과 그에 따른 지리정보 생성 알고리즘의 실행을 통해 실제 유의한 수준의 지리정보가 얼마나 효율적으로 생성되는지를 확인한다. 수집된 지리정보 처리 성능은 세 번의 실험에서 1회차 70.92 EA/s, 2회차 70.69 EA/s 3회차 70.98 EA/s로 평균 70.86 EA/s로 확인되었으며 실제 지리정보에 반영되기까지 약 4초가 소요됨을 확인할 수 있었다. 이러한 실험 결과로부터 전동 이동 보조기를 이용하는 보행 약자가 현재보다 빠르게 제공되는 새로운 지리정보를 이용해 안전한 주행이 가능한 것으로 확인되었다.

기계학습(machine learning) 기반 터널 영상유고 자동 감지 시스템 개발을 위한 사전검토 연구 (A preliminary study for development of an automatic incident detection system on CCTV in tunnels based on a machine learning algorithm)

  • 신휴성;김동규;임민진;이규범;오영섭
    • 한국터널지하공간학회 논문집
    • /
    • 제19권1호
    • /
    • pp.95-107
    • /
    • 2017
  • 본 논문에서는 제도적으로 운영 중인 터널내 CCTV들로부터 실시간으로 들어오는 영상들을 최신 딥러닝 알고리즘을 이용, 학습시켜 다양한 조건의 터널환경에서 돌발 상황을 감지하고 그 돌발 상황의 종류들을 분류해 내는 시스템 개발을 위한 사전검토 연구를 수행하였다. 사전검토 연구를 위해, 2개의 도로현장의 교통류 CCTV영상 일부를 이용하여 가용한 전통적인 영상처리기법으로 영상내부로 집입하는 차량을 감지하고, 이동경로를 추적하여 일정 시간간격의 이동 차량의 좌표와 시간정보를 추출하고 학습자료를 구성하였다. 각 차량의 이동정보는 차선변경, 정차 등 6가지의 이벤트 정보와 연계된다. 차량 이동정보와 이벤트로 구성된 학습자료는 레질리언스(resilience) 기계학습 알고리즘을 이용하여 학습하였다. 2개의 은닉층을 설정하고, 각 은닉층의 노드수에 대한 9개의 은닉구조 모델을 설정하여 매개변수 연구를 수행하였다. 본 사전검토의 경우에는 첫 번째, 두 번째 은닉층 노드수가 각각 300개와 150개로 설정된 모델이 합리적으로 가장 추론정확도가 높은 것으로 평가되었다. 이로부터 일반화되기 매우 힘든 복잡한 교통류 상황을 기계학습을 이용하여 어떠한 사전 규칙설정 없이도 교통류의 특징들을 정확히 자동으로 감지할 수 있는 가능성을 보였다. 본 시스템은 시스템의 운용을 통해 지속적으로 교통류 영상과 이벤트 정보가 늘어난다면, 자동으로 그 시스템의 인지능력과 정확도가 자동으로 향상되는 효과도 기대할 수 있다.