• 제목/요약/키워드: Visual Localization

검색결과 145건 처리시간 0.029초

SLAM을 이용한 카메라 기반의 실내 배송용 자율주행 차량 구현 (Implementation of Camera-Based Autonomous Driving Vehicle for Indoor Delivery using SLAM)

  • 김유중;강준우;윤정빈;이유빈;백수황
    • 한국전자통신학회논문지
    • /
    • 제17권4호
    • /
    • pp.687-694
    • /
    • 2022
  • 본 논문에서는 Visual 동시적 위치추정 및 지도작성(SLAM : Simultaneous Localization and Mapping)기술을 응용하여 실내에서 생성된 SLAM 맵을 기반으로 지정된 목적지에 물건을 배달하는 자율주행 차량 플랫폼을 제안하였다. 실내에서 SLAM 맵을 생성하기 위해 소형 자율주행 차량 플랫폼의 상단에 SLAM 맵 생성을 위한 심도 카메라를 설치하고 SLAM 맵 속에서의 정확한 위치추정을 하기 위해 추적 카메라를 장착하여 구현하였다. 또한, 목적지의 표찰을 인식하기 위해 합성곱 신경망(CNN : Convolutional neural network)을 사용하여 목적지에 정확하게 도착할 수 있도록 주행 알고리즘을 적용하여 설계하였다. 실내 배송 자율주행 차량을 실제로 제작하였고 SLAM 맵의 정확도 확인과 CNN을 통한 목적지 표찰 인식 실험을 수행하였다. 결과적으로 표찰 인식의 성공률을 향상시켜 구현한 실내 배송용 자율주행 차량의 활용 적합성 여부를 확인하였다.

센서융합을 통한 시맨틱 지도의 작성 (Sensor Fusion-Based Semantic Map Building)

  • 박중태;송재복
    • 제어로봇시스템학회논문지
    • /
    • 제17권3호
    • /
    • pp.277-282
    • /
    • 2011
  • This paper describes a sensor fusion-based semantic map building which can improve the capabilities of a mobile robot in various domains including localization, path-planning and mapping. To build a semantic map, various environmental information, such as doors and cliff areas, should be extracted autonomously. Therefore, we propose a method to detect doors, cliff areas and robust visual features using a laser scanner and a vision sensor. The GHT (General Hough Transform) based recognition of door handles and the geometrical features of a door are used to detect doors. To detect the cliff area and robust visual features, the tilting laser scanner and SIFT features are used, respectively. The proposed method was verified by various experiments and showed that the robot could build a semantic map autonomously in various indoor environments.

특징점 기반 단안 영상 SLAM의 최적화 기법 및 필터링 기법 성능 분석 (Performance Analysis of Optimization Method and Filtering Method for Feature-based Monocular Visual SLAM)

  • 전진석;김효중;심덕선
    • 전기학회논문지
    • /
    • 제68권1호
    • /
    • pp.182-188
    • /
    • 2019
  • Autonomous mobile robots need SLAM (simultaneous localization and mapping) to look for the location and simultaneously to make the map around the location. In order to achieve visual SLAM, it is necessary to form an algorithm that detects and extracts feature points from camera images, and gets the camera pose and 3D points of the features. In this paper, we propose MPROSAC algorithm which combines MSAC and PROSAC, and compare the performance of optimization method and the filtering method for feature-based monocular visual SLAM. Sparse Bundle Adjustment (SBA) is used for the optimization method and the extended Kalman filter is used for the filtering method.

후방 카메라 영상과 3차원 도로지도를 이용한 이동차량의 위치인식 (Localization of A Moving Vehicle using Backward-looking Camera and 3D Road Map)

  • 최성인;박순용
    • 전자공학회논문지
    • /
    • 제50권3호
    • /
    • pp.160-173
    • /
    • 2013
  • 본 논문에서는 실외 도로환경에서 주행하는 차량의 위치를 추정하기 위한 비쥬얼 오도메트리 기술을 제안한다. 제안하는 방법은 운전자의 이동계획에 따라 차량의 초기위치에서 원거리에 위치한 특정 목적지를 방문한 후 지나온 경로를 따라 다시 초기위치로 정확하게 복귀해야 하는 차량의 위치인식을 위해 사용된다. 위치인식에는 차량 전방의 3차원 정보획득을 위한 스테레오 카메라와 후방의 영상을 획득하는 단일 카메라를 사용한다. 차량이 목적지를 향해 순방향 주행할 때는 전방 스테레오 비쥬얼 오도메트리(stereo visual odometry)를 이용하여 이동차량의 위치를 추정하고 동시에 도로 및 주변 환경에 대한 3차원 전역지도를 그래프 구조로 생성한다. 차량이 목적지에 도달하여 복귀할 때는 후방의 단일 카메라에서 획득한 2차원 영상과 전역지도를 바탕으로 모노 비쥬얼 오도메트리(monocular visual odometry)로 위치를 추정한다. 복귀하는 차량의 위치를 정확하게 추정하기 위해서는 효과적인 전역지도의 노드 탐색방법이 요구된다. 후방 카메라의 영상 특징과 전역지도의 각 노드의 영상 특징을 정합하고 지도에 저장된 3차원 좌표를 이용하여 차량의 위치를 추정하였다. 또한 3차원 위치추정에 성공한 이전노드들의 정보를 바탕으로 매 영상 프레임마다 적응적으로 탐색영역을 확장하거나 줄이도록 하였다. 두 개의 서로 다른 경로에 대한 실험을 통하여 제안하는 방법의 성능을 검증하였다.

지능 영상 감시를 위한 흑백 영상 데이터에서의 효과적인 이동 투영 음영 제거 (An Effective Moving Cast Shadow Removal in Gray Level Video for Intelligent Visual Surveillance)

  • 응웬탄빈;정선태;조성원
    • 한국멀티미디어학회논문지
    • /
    • 제17권4호
    • /
    • pp.420-432
    • /
    • 2014
  • In detection of moving objects from video sequences, an essential process for intelligent visual surveillance, the cast shadows accompanying moving objects are different from background so that they may be easily extracted as foreground object blobs, which causes errors in localization, segmentation, tracking and classification of objects. Most of the previous research results about moving cast shadow detection and removal usually utilize color information about objects and scenes. In this paper, we proposes a novel cast shadow removal method of moving objects in gray level video data for visual surveillance application. The proposed method utilizes observations about edge patterns in the shadow region in the current frame and the corresponding region in the background scene, and applies Laplacian edge detector to the blob regions in the current frame and the corresponding regions in the background scene. Then, the product of the outcomes of application determines moving object blob pixels from the blob pixels in the foreground mask. The minimal rectangle regions containing all blob pixles classified as moving object pixels are extracted. The proposed method is simple but turns out practically very effective for Adative Gaussian Mixture Model-based object detection of intelligent visual surveillance applications, which is verified through experiments.

Local and Global Information Exchange for Enhancing Object Detection and Tracking

  • Lee, Jin-Seok;Cho, Shung-Han;Oh, Seong-Jun;Hong, Sang-Jin
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제6권5호
    • /
    • pp.1400-1420
    • /
    • 2012
  • Object detection and tracking using visual sensors is a critical component of surveillance systems, which presents many challenges. This paper addresses the enhancement of object detection and tracking via the combination of multiple visual sensors. The enhancement method we introduce compensates for missed object detection based on the partial detection of objects by multiple visual sensors. When one detects an object or more visual sensors, the detected object's local positions transformed into a global object position. Local and global information exchange allows a missed local object's position to recover. However, the exchange of the information may degrade the detection and tracking performance by incorrectly recovering the local object position, which propagated by false object detection. Furthermore, local object positions corresponding to an identical object can transformed into nonequivalent global object positions because of detection uncertainty such as shadows or other artifacts. We improved the performance by preventing the propagation of false object detection. In addition, we present an evaluation method for the final global object position. The proposed method analyzed and evaluated using case studies.

시각추적과제의 뇌자도 : 예비실험 (A Pilot MEG Study During A Visual Search Task)

  • 김성훈;이상건;김광기
    • Annals of Clinical Neurophysiology
    • /
    • 제8권1호
    • /
    • pp.44-47
    • /
    • 2006
  • Background: The present study used magnetoencephalography (MEG) to investigate the neural substrates for modified version of Treisman's visual search task. Methods: Two volunteers who gave informed consent participated MEG experiment. One was 27- year old male and another was 24-year-old female. All were right handed. Experiment were performed using a 306-channel biomagnetometer (Neuromag LTD). There were three task conditions in this experiment. The first was searching an open circle among seven closed circles (open condition). The second was searching a closed circle among seven uni-directionally open circles (closed condition). And the third was searching a closed circle among seven eight-directionally open circles (random (closed) condition). In one run, participants performed one task condition so there were three runs in one session of experiment. During one session, 128 trials were performed during every three runs. One participant underwent one session of experiment. The participant pressed button when they found targets. Magnetic source localization images were generated using software programs that allowed for interactive identification of a common set of fiduciary points in the MRI and MEG coordinate frames. Results: In each participant we can found activations of anterior cingulate, primary visual and association cortices, posterior parietal cortex and brain areas in the vicinity of thalamus. Conclusions: we could find activations corresponding to anterior and posterior visual attention systems.

  • PDF

Cloning and Spatiotemporal Expression Analysis of Bombyx mori elav, an Embryonic Lethal Abnormal Visual Gene

  • Wang, Geng-Xian;Liu, Ying;Sim, Yang-Hu;Zhang, Sheng-Xiang;Xu, Shi-Qing
    • International Journal of Industrial Entomology and Biomaterials
    • /
    • 제18권2호
    • /
    • pp.113-120
    • /
    • 2009
  • Embryonic lethal abnormal visual (elav) is a lethal gene in Drosophila inducing the abnormal development and function of nervous system. We cloned a Bm-elav gene by bioinformatics and biological experiment, based on sequence of ELAV protein and dbEST of Bombyx mori. The full-length of Bm-elav cDNA is 1498 bp, contains a 906 bp open read frame (ORF) encoding a precursor of 301 amino acid residues with a calculated molecular weight of 34 kDa and pI of 8.99. Bm-ELAV protein precursor contains three RNA recognition motifs (RRM) in $24{\sim}91$, $110{\sim}177$ and $222{\sim}295$ bit amino acid residues respectively, and belongs to RNA-binding protein family. Bm-ELAV shared varying positives, ranging from 56% to 60% (Identities from 41% to 45%), with RRM from other species of Xenopus tropicalis, Apis mellifera, Tribolium castaneum, Branchiostoma belcheri and Drosophila. Gene localization indicated that Bm-elav is a single-copy gene, gene mapping within 12-chromosome from 7916.68 knt to 7918.16 knt region of nscaf2993. Spatiotemporal expressions pattern analysis revealed that Bm-elav expressed higher in most tested tissues and developmental stages in whole generation, such as silk gland, fat body, midgut, hemopoietic organ and ovary, but almost no expression in terminated diapause eggs. This suggested that the expression of Bm-elav in early developmental embryonic stages might induce abnormal development like in Drosophila. Cloning of the Bm-elav gene enables us to test its potential role in controlling pests by transferring the gene into field lepidopteran insects in the future.

DEM과 산영상을 이용한 비전기반 카메라 위치인식 (Vision-based Camera Localization using DEM and Mountain Image)

  • 차정희
    • 한국컴퓨터정보학회논문지
    • /
    • 제10권6호
    • /
    • pp.177-186
    • /
    • 2005
  • 본 논문에서는 DEM(Digital Elevation Model)과 산 영상을 매핑하여 3차원 정보를 생성하고 이를 이용한 비전기반 카메라 위치인식방법을 제안한다. 일반적으로 인식에 사용된 영상의 특징들은 카메라뷰에 따라 내용이 변해 정보양이 증가하는 단점이 있다. 본 논문에서는 카메라뷰에 무관한 기하학의 불변특징을 추출하고 제안하는 유사도 평가함수와 Graham 탐색방법을 사용한 정확한 대응점을 산출하여 카메라 외부인수를 계산하였다. 또한 그래픽이론과 시각적 단서를 이용한 3차원 정보생성 방법을 제안하였다. 제안하는 방법은 불변 점 특징 추출단계, 3차원 정보 생성단계, 외부인수 산출단계의 3단계로 구성된다. 실험에서는 제안한 방법과 기존방법을 비교, 분석함으로써 제안한 방법의 우월성을 입증하였다.

  • PDF

영상기반 자동항법을 위한 실시간 위치인식 및 지도작성 (Real-time Simultaneous Localization and Mapping (SLAM) for Vision-based Autonomous Navigation)

  • 임현;임종우;김현진
    • 대한기계학회논문집A
    • /
    • 제39권5호
    • /
    • pp.483-489
    • /
    • 2015
  • 본 논문에서는 넓은 지역에서의 영상기반 자동 항법을 위한 실시간 위치인식 및 지도작성 방법을 제안한다. 한 대의 카메라에서 입력된 영상으로부터 제안된 방법은 6 자유도 카메라 자세와 3 차원 특징점 위치를 연속적으로 계산한다. 제안된 방법은 넓은 지역을 주행하며 촬영된 영상에 적용하여 그 위치와 환경지도를 성공적으로 작성하였이다. 본 논문에서는 이진기술자(binary descriptor)와 수치-위상(metric-topological)지도 표현법을 사용하여 GPU 나 영상의 축소 없이 실시간 성능과 광범위한 지역에서의 회귀점 검출(loop detection)을 하였다. 제안된 방법은 여러 환경에서 촬영된 영상과, 해당 영상의 GPS 기준값과 비교하여 평가하였다.