• 제목/요약/키워드: Eye map

검색결과 96건 처리시간 0.042초

운전자 시선 및 선택적 주의 집중 모델 통합 해석을 통한 운전자 보조 시스템 (Driver Assistance System for Integration Interpretation of Driver's Gaze and Selective Attention Model)

  • 김지훈;조현래;장길진;이민호
    • 한국인터넷방송통신학회논문지
    • /
    • 제16권3호
    • /
    • pp.115-122
    • /
    • 2016
  • 본 논문은 차량의 내부 및 외부 정보를 통합하여 운전자의 인지 상태를 측정하고, 안전운전을 보조하여 주는시스템을 제안한다. 구현된 시스템은 운전자의 시선 정보와 외부 영상을 분석하여 얻은 주변정보를 mutual information기반으로 통합하여 구현되며, 차량의 앞부분과 내부 운전자를 검출하는 2개의 카메라를 이용한다. 외부 카메라에서 정보를 얻기 위해 선택적 집중모델을 기반으로 하는 게슈탈트법칙을 제안하고, 이를 기반으로 구현된 saliency map (SM) 모델은 신호등과 같은 중요한 외부 자극을 두드러지게 표현한다. 내부 카메라에서는 얼굴의 특징정보를 이용하여 운전자의 주의가 집중되는 외부 응시 정보를 파악하고 이를 통해 운전자가 응시하고 있는 영역을 검출한다. 이를 위해서 우리는 실시간으로 운전자의 얼굴특징을 검출하는 알고리즘을 사용한다. 운전자의 얼굴을 검출하기 위하여 modified census transform (MCT) 기반의 Adaboost 알고리즘을 사용하였으며, POSIT (POS with ITerations)알고리즘을 통해 3차원 공간에서 머리의 방향과 운전자 응시 정보를 측정하였다. 실험결과를 통하여 제안한 시스템이 실시간으로 운전자의 응시하고 있는 영역과, 신호등과 같은 운전에 도움이 되는 정보를 파악하는데 도움이 되었음을 확인할 수 있으며, 이러한 시스템이 운전보조 시스템에 효과적으로 적용될 것으로 판단된다.

객체기반 분류기법을 이용한 UAV 영상의 토지피복도 제작 연구 (A Study on Land Cover Map of UAV Imagery using an Object-based Classification Method)

  • 신지선;이태호;정필모;권혁수
    • 대한공간정보학회지
    • /
    • 제23권4호
    • /
    • pp.25-33
    • /
    • 2015
  • 생태계 평가 연구는 대부분 토지피복 정보를 기반으로 하여 연구되며, 주로 전지구적인 범위로 이루어져 왔다. 그러나 이러한 결과들을 지역적 현안에 대한 의사결정 자료로 활용하기에는 범위와 스케일에 있어서 활용성이 떨어지는 측면이 있다. 지역적 스케일에 활용 가능한 토지피복 정보로는 환경부에서 제작된 토지피복도가 있지만 시각판독법(On Screen Digitizing Method)의 한계와 시기별, 지역별 차이로 인해 자료 활용에 제한이 있다. 본 연구는 객체기반 분류기법을 이용하여 UAV 영상의 중분류 토지피복도를 제작하는데 목적이 있다. 이를 위하여 고해상도 UAV 영상을 5m 공간해상도로 재배열한 후 영상분할을 수행한 결과 scale 20, merge 34가 최적의 가중치 값으로 나타났으며, RapidEye 영상 분할에서는 scale 30, merge 30이 중분류 수준에 적절한 가중치 값으로 나타났다. 토지피복도는 예제기반분류를 사용하여 제작하였고, 층화추출법을 사용하여 정확도 검증을 수행하였다. 그 결과, RapidEye 분류 영상은 90%, UAV 분류 영상은 91%로 양호한 토지피복분류 결과가 도출되었다.

농림위성 활용 수종분류 가능성 평가를 위한 래피드아이 영상 기반 시험 분석 (A Study on Pre-evaluation of Tree Species Classification Possibility of CAS500-4 Using RapidEye Satellite Imageries)

  • 권수경;김경민;임중빈
    • 대한원격탐사학회지
    • /
    • 제37권2호
    • /
    • pp.291-304
    • /
    • 2021
  • 기후변화나 여러 환경문제들로부터 지속 가능한 산림자원 관리 및 모니터링을 위해 임상도의 지속적인 갱신은 필수적이다. 따라서 효율적이고 광역적인 산림 원격탐사의 필요성에 따라 차세대 중형위성 4호의 사업이 확정되어 2023년 발사 예정에 있다. 농림위성(차세대 중형위성 4호)는 5 m급 공간해상도와 Blue, Green, Red, Red Edge, Near Infra Red 총 5개 밴드를 가진다. 본 연구는 농림위성의 발사 및 활용에 앞서 농림위성과 유사한 사양을 가지는 RapidEye를 이용하여 위성 기반 수종분류의 가능성을 모의 평가하기 수행되었다. 본 연구는 춘천 선도산림경영단지를 연구 대상지로 하였으며, RapidEye 위성 영상기반 모의 수종분류는 생육기 영상으로부터 추출한 분광정보와 생육기와 비생육기의 NIR 밴드로부터 추출한 GLCM 질감특성 정보가 활용되었고, 이를 입력데이터로 하여 랜덤 포레스트(Random Forest) 기법을 적용하였다. 본 연구에서는 침엽수종 3종(소나무, 잣나무, 낙엽송), 활엽수종 5종(신갈나무, 굴참나무, 자작나무, 밤나무, 기타활엽수), 침활혼효림 총 9종으로 임상을 분류하였다. 분류 정확도는 임상도와 분류 결과를 대조하여 산출하였으며, 분류 정확도는 분광정보만 사용한 경우 39.41%, 분광정보과 질감정보를 모두 사용한 경우 69.29%의 정확도를 보였으며, 다중시기 분광정보 및 질감정보의 활용을 통해 5 m 해상도의 위성영상으로부터 수종분류의 가능성이 있음을 확인하였다. 향후 식생의 생태적 특성을 더욱 효과적으로 반영한 추가 변수를 대입하여 농림위성 활용 가능성을 제고하고자 한다.

마코프 체인과 객체 판독키를 적용한 범죄 예측 확률지도 생성 기법 연구 (A Study on Generation Methodology of Crime Prediction Probability Map by using the Markov Chains and Object Interpretation Keys)

  • 노찬숙;김동현
    • 한국컴퓨터정보학회논문지
    • /
    • 제17권11호
    • /
    • pp.107-116
    • /
    • 2012
  • 본 논문에서는 과거 발생했던 범죄 빈도수가 적용된 해당 지역의 도시 공간 정보를 구성하고 있는 객체를 바탕으로 육안으로 판별이 가능한 특징들을 판독키로 정하고, 위험도를 계량화하였으며, 미래 예측 기법인 마코프 체인 방식을 적용하여 래스터 형태의 위험도 확률지도를 생성하는 기법을 제안한다. 이때 객체 판독키는 일정 크기의 셀로 나누어 셀에 해당하는 계량화된 위험지수를 적용하고, 여러 계층의 범죄 예측 확률지도를 통합하여 통합된 위험도 확률지도를 생성한다. 이는 정적인 정보가 아닌 시간에 따라 위험도 확률지도가 변화될 수 있고, 객체 판독키의 추가 적용에 따라 달라질 수 있는 위험도 확률지도를 생성하여 범죄의 예방에 적용될 수 있는 모델 구성 방법을 제시한 것으로, 순찰 경로 및 감시 장비의 최적 배치에 활용될 수 있을 것이다.

객체 판독키를 적용한 방범 위험도 확률지도 생성기법 연구 (A Study on Crime Prevention Risk Probability Map Generation Methodology by using the Object Interpretation Key)

  • 김동현;박구락
    • 한국컴퓨터정보학회논문지
    • /
    • 제14권11호
    • /
    • pp.135-144
    • /
    • 2009
  • 본 논문에서는 집단 주거지역이 있는 도시지역을 대상으로 방범에 관한 위험도 확률지도 제작 기법을 제안한 것이다. 과거 발생했던 방범 사례를 분석하여 해당지역의 지형, 시설물, 속성 정보 등 도시 공간정보를 구성하는 객체를 바탕으로 육안으로 판별할 수 있는 특징을 판독키 (interpretation key)로 정하였다. 이 판독키를 작성하여 다른 지역에 동일하게 적용하여 방범 및 방재 위험도 확률지도를 생성하는 기법을 제안하였다. 이때 도시공간정보 객체 판독키는 방범 유형에 따라 달라지는 크기의 셀(cell)로 나누고 그 셀에 해당하는 위험지수를 설정하게 된다. 이 때 만들어진 여러 계층의 위험도 확률 지도를 통합하여 종합 위험도 확률 지도를 생성하였다.

어안 이미지 기반의 움직임 추정 기법을 이용한 전방향 영상 SLAM (Omni-directional Vision SLAM using a Motion Estimation Method based on Fisheye Image)

  • 최윤원;최정원;대염염;이석규
    • 제어로봇시스템학회논문지
    • /
    • 제20권8호
    • /
    • pp.868-874
    • /
    • 2014
  • This paper proposes a novel mapping algorithm in Omni-directional Vision SLAM based on an obstacle's feature extraction using Lucas-Kanade Optical Flow motion detection and images obtained through fish-eye lenses mounted on robots. Omni-directional image sensors have distortion problems because they use a fish-eye lens or mirror, but it is possible in real time image processing for mobile robots because it measured all information around the robot at one time. In previous Omni-Directional Vision SLAM research, feature points in corrected fisheye images were used but the proposed algorithm corrected only the feature point of the obstacle. We obtained faster processing than previous systems through this process. The core of the proposed algorithm may be summarized as follows: First, we capture instantaneous $360^{\circ}$ panoramic images around a robot through fish-eye lenses which are mounted in the bottom direction. Second, we remove the feature points of the floor surface using a histogram filter, and label the candidates of the obstacle extracted. Third, we estimate the location of obstacles based on motion vectors using LKOF. Finally, it estimates the robot position using an Extended Kalman Filter based on the obstacle position obtained by LKOF and creates a map. We will confirm the reliability of the mapping algorithm using motion estimation based on fisheye images through the comparison between maps obtained using the proposed algorithm and real maps.

인간-로봇 상호작용을 위한 자세가 변하는 사용자 얼굴검출 및 얼굴요소 위치추정 (Face and Facial Feature Detection under Pose Variation of User Face for Human-Robot Interaction)

  • 박성기;박민용;이태근
    • 제어로봇시스템학회논문지
    • /
    • 제11권1호
    • /
    • pp.50-57
    • /
    • 2005
  • We present a simple and effective method of face and facial feature detection under pose variation of user face in complex background for the human-robot interaction. Our approach is a flexible method that can be performed in both color and gray facial image and is also feasible for detecting facial features in quasi real-time. Based on the characteristics of the intensity of neighborhood area of facial features, new directional template for facial feature is defined. From applying this template to input facial image, novel edge-like blob map (EBM) with multiple intensity strengths is constructed. Regardless of color information of input image, using this map and conditions for facial characteristics, we show that the locations of face and its features - i.e., two eyes and a mouth-can be successfully estimated. Without the information of facial area boundary, final candidate face region is determined by both obtained locations of facial features and weighted correlation values with standard facial templates. Experimental results from many color images and well-known gray level face database images authorize the usefulness of proposed algorithm.

스마트폰 증강현실 내비게이션의 인지능력과 호응도에 관한 연구 (Research on Cognitive Effects and Responsiveness of Smartphone-based Augmented Reality Navigation)

  • 손민국;이승태;이재열
    • 한국CDE학회논문집
    • /
    • 제19권3호
    • /
    • pp.272-280
    • /
    • 2014
  • Most of the car navigation systems pzrovide 2D or 3D virtual map-based driving guidance. One of the important issues is how to reduce cognitive burden to the driver who should interpret the abstracted information to real world driving information. Recently, an augmented reality (AR)-based navigation is considered as a new way to reduce cognitive workload by superimposing guidance information into the real world scene captured by the camera. In particular, head-up display (HUD) is popular to implement AR navigation. However, HUD is too expensive to be set up in most cars so that the HUD-based AR navigation is currently unrealistic for navigational assistance. Meanwhile, smartphones with advanced computing capability and various sensors are popularized and also provide navigational assistance. This paper presents a research on cognitive effect and responsiveness of an AR navigation by a comparative study with a conventional virtual map-based navigation on the same smartphone. This paper experimented both quantitative and qualitative studies to compare cognitive workload and responsiveness, respectively. The number of eye gazing at the navigation system is used to measure the cognitive effect. In addition, questionnaires are used for qualitative analysis of the responsiveness.

야간경관 평가에서의 아이트래킹 분석 적용 연구 (Application Strategies of Eye-tracking Method in Nightscape Evaluation)

  • 강영은;김민태
    • 한국조경학회지
    • /
    • 제43권4호
    • /
    • pp.87-97
    • /
    • 2015
  • 도시이미지 형성 및 지역 경제 활성화를 위해 국가 및 지자체별 야간경관계획 사업이 활발하게 추진되는 추세이지만, 현재까지 야간경관 관련 연구 부족 및 객관적인 평가 방법의 부재로 체계적인 야간경관계획이 이루어지지 않고 있다. 이에 본 연구에서는 피조사자들의 눈의 움직임 평가 및 설문조사를 통해 야간경관 특성을 분석하여, 향후 바람직한 야간경관계획에 시사점을 제공하고자 한다. 나아가 아이트래킹 기법(Eye-tracking method)이 경관 평가에 있어 객관적인 평가 방법이 될 수 있는지 검증하고자 하였다. 연구 대상지는 미국 버지니아 공과주립대 캠퍼스이며, 다양한 야간경관 이미지 중 전문가 평가를 통해 대표 야간경관을 선정하였다. 선정된 야간경관 이미지의 특성을 분석하기 위하여 사용된 변수는 선호도, 안전함(두려움), 선명도이며, 눈의 움직임 분석을 위한 변수는 고정 지속시간(fixation duration), 순간적 움직임 지속시간(saccade duration), 주사경로 길이(scan path length), 동공 크기(pupil size)이다. 분석 결과는 다음과 같다. 첫째, 다변량 분산분석(MANOVA)을 통하여 야간경관의 유형에 따라 선호도, 선명도, 안전함(두려움)의 차이가 통계적으로 유의하였으며, 상관관계 분석을 통해 선호도, 안전함, 선명도 사이에 정적인 영향관계가 있음을 도출하였다. 둘째, 야간경관의 유형에 따라 눈의 움직임 변수들(고정 지속시간, 지속시간, 주사경로 길이) 차이가 유의함을 파악하였으며, 상대적으로 오픈된 경관이 폐쇄된 경관보다 눈의 움직임 변수 수치가 낮은 것으로 조사되었다. 셋째, 눈 움직임 강도 지도(Heat map) 비교 분석에서는 피조사자들이 무의식적으로 응시한 강도 지도 결과와 선호되는 구역 및 선명하게 보이는 구역 응시를 지시했던 강도 지도 결과가 유사하게 나타나는 결과를 확인하였다. 이는 사람들이 무의식적으로 야간경관을 응시할 때, 다른 구역에 비하여 주로 선호하고, 선명하게 보이는 구역을 강하게 응시한다는 것을 의미한다. 종합해볼 때, 본 연구에서는 야간경관의 유형에 따라 전체적인 선호도, 선명도, 안전함(두려움) 등의 지각하는 특성 및 눈의 움직임 차이를 검증할 수 있었으며, 나아가 야간경관 구역별 강하게 응시하는 구역과 해당 구역이 의미하는 특성을 파악할 수 있었다. 본 연구 결과는 경관 평가에 있어 아이트래킹 기법 적용하여 환경별 유의미한 차이를 입증했다는 데에 의미하는 바가 크며, 향후 경관 평가에 시사점 제시 및 야간경관의 이용 만족도 향상을 위한 야간경관계획 시 전략적으로 참고할 수 있을 것이다.

RapidEye 위성영상을 이용한 작물재배지역 추정을 위한 FC-DenseNet의 활용성 평가 (Assessment of the FC-DenseNet for Crop Cultivation Area Extraction by Using RapidEye Satellite Imagery)

  • 성선경;나상일;최재완
    • 대한원격탐사학회지
    • /
    • 제36권5_1호
    • /
    • pp.823-833
    • /
    • 2020
  • 안정적인 작물 생산을 위하여 국내 농업지역에 대한 효과적인 작황 모니터링 기법의 요구가 증대되고 있다. 본 연구에서는 작물 재배지역 추출을 위하여 딥러닝 기법을 이용한 분류 모델을 개발하고, 이를 위성영상에 적용하고자 하였다. 이를 위하여, 식생분석에 유용한 blue, green, red, red-edge, NIR 밴드를 포함하고 있는 RapidEye 위성영상을 이용하여 작물 재배지역에 대한 훈련자료를 구축하고, 이를 활용하여 국내 양파 및 마늘 작물에 대한 재배면적을 추정하고자 하였다. 대기보정된 RapidEye 위성영상을 활용하여 훈련자료를 구축하였으며, 작물지역의 분류를 위하여 대표적인 의미론적 분할을 위한 딥러닝 모델인 FC-DenseNet을 이용하여 딥러닝 모델을 생성하였다. 최종적인 작물 재배지역은 지적도와의 결합을 통하여 객체 기반의 자료로 생성하였다. 실험결과, 대기보정된 훈련자료를 이용하여 학습된 FC-DenseNet 모델은 훈련에 사용되지 않은 타 지역의 작물 재배지역을 효과적으로 검출할 수 있음을 확인하였다.