• 제목/요약/키워드: Image Signal Recognition

검색결과 187건 처리시간 0.023초

Design of Smart Device Assistive Emergency WayFinder Using Vision Based Emergency Exit Sign Detection

  • 이민우;비나야감 마리아판;비투무키자 조셉;이정훈;조주필;차재상
    • 한국위성정보통신학회논문지
    • /
    • 제12권1호
    • /
    • pp.101-106
    • /
    • 2017
  • In this paper, we present Emergency exit signs are installed to provide escape routes or ways in buildings like shopping malls, hospitals, industry, and government complex, etc. and various other places for safety purpose to aid people to escape easily during emergency situations. In case of an emergency situation like smoke, fire, bad lightings and crowded stamped condition at emergency situations, it's difficult for people to recognize the emergency exit signs and emergency doors to exit from the emergency building areas. This paper propose an automatic emergency exit sing recognition to find exit direction using a smart device. The proposed approach aims to develop an computer vision based smart phone application to detect emergency exit signs using the smart device camera and guide the direction to escape in the visible and audible output format. In this research, a CAMShift object tracking approach is used to detect the emergency exit sign and the direction information extracted using template matching method. The direction information of the exit sign is stored in a text format and then using text-to-speech the text synthesized to audible acoustic signal. The synthesized acoustic signal render on smart device speaker as an escape guide information to the user. This research result is analyzed and concluded from the views of visual elements selecting, EXIT appearance design and EXIT's placement in the building, which is very valuable and can be commonly referred in wayfinder system.

딥러닝을 이용한 WTCI 설태량 평가를 위한 유효성 검증 (An Effectiveness Verification for Evaluating the Amount of WTCI Tongue Coating Using Deep Learning)

  • 이우범
    • 융합신호처리학회논문지
    • /
    • 제20권4호
    • /
    • pp.226-231
    • /
    • 2019
  • 한방 설진에서 WTCI(Winkel Tongue Coating Index) 설태 평가는 환자의 설태량 측정을 위한 중요한 객관적인 지표 중의 하나이다. 그러나 이전의 WTCI 설태 평가는 혀영상으로부터 설태 부분을 추출하여 전체 혀 영역에서 추출된 설태 영역의 비율을 정량적으로 측정하는 방법이 대부분으로 혀영상의 촬영 조건이나 설태 인식 성능에 의해서 비객관적 측정의 문제점이 있었다. 따라서 본 논문에서는 빅데이터를 기반으로 하는 인공지능의 딥러닝 방법을 적용하여 설태량을 분류하여 평가하는 딥러닝 기반의 WTCI 평가 방법을 제안하고 검증한다. 설태 평가 방법에 있어서 딥러닝의 유효성 검증을 위해서는 CNN을 학습 모델로 사용하여 소태, 박태, 후태의 3가지 유형의 설태량을 분류한다. 설태 샘플 영상을 학습 및 검증 데이터로 구축하여 CNN 기반의 딥러닝 모델로 학습한 결과 96.7%의 설태량 분류 정확성을 보였다.

Decoding Brain Patterns for Colored and Grayscale Images using Multivariate Pattern Analysis

  • Zafar, Raheel;Malik, Muhammad Noman;Hayat, Huma;Malik, Aamir Saeed
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권4호
    • /
    • pp.1543-1561
    • /
    • 2020
  • Taxonomy of human brain activity is a complicated rather challenging procedure. Due to its multifaceted aspects, including experiment design, stimuli selection and presentation of images other than feature extraction and selection techniques, foster its challenging nature. Although, researchers have focused various methods to create taxonomy of human brain activity, however use of multivariate pattern analysis (MVPA) for image recognition to catalog the human brain activities is scarce. Moreover, experiment design is a complex procedure and selection of image type, color and order is challenging too. Thus, this research bridge the gap by using MVPA to create taxonomy of human brain activity for different categories of images, both colored and gray scale. In this regard, experiment is conducted through EEG testing technique, with feature extraction, selection and classification approaches to collect data from prequalified criteria of 25 graduates of University Technology PETRONAS (UTP). These participants are shown both colored and gray scale images to record accuracy and reaction time. The results showed that colored images produces better end result in terms of accuracy and response time using wavelet transform, t-test and support vector machine. This research resulted that MVPA is a better approach for the analysis of EEG data as more useful information can be extracted from the brain using colored images. This research discusses a detail behavior of human brain based on the color and gray scale images for the specific and unique task. This research contributes to further improve the decoding of human brain with increased accuracy. Besides, such experiment settings can be implemented and contribute to other areas of medical, military, business, lie detection and many others.

자동차 운전자 졸림 감지 기술 (Car Driver Drowsiness Detection Technology)

  • 정완영;김종진;권태하
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 춘계학술대회
    • /
    • pp.481-484
    • /
    • 2011
  • 최근의 자동차 기술이 기계적 장치 위주에서 전장부품 특히, 차량의 안전 및 편의 기술로서 발전되고 있어서, 추후 자동차의 경쟁력은 에너지 효율성문제와 안전편의 기술의 적용에 의해 그 경쟁력이 결정될 것으로 판단된다. 본 연구에서는 자동차 운전자 졸림의 검지하기 위한 각종 기술을 소개하고 상용화된 기술의 장단점을 비교하여서, 이의 문제점을 해결하기 위한 복합 센싱기술을 소개한다. 기존의 카메라에 의한 눈동자인식을 기반으로한 직접적인 졸림검지와 운전자의 생체신호를 검출하여 간접적으로 스트레스, 피로도, 졸림을 검출하는 방법을 결합하여, 보다 정확도가 높은 졸림검지가 가능한 알고리즘을 개발하였다.

  • PDF

계단 첩 파형(Stepped Chirp Waveform)을 이용한 ISAR 영상 형성 (Inverse Synthetic Aperture Radar Imaging Using Stepped Chirp Waveform)

  • 이성현;강민석;박상홍;신승용;양은정;김경태
    • 한국전자파학회논문지
    • /
    • 제25권9호
    • /
    • pp.930-937
    • /
    • 2014
  • 역 합성 개구면 레이더(Inverse Synthetic Aperture Radar: ISAR) 영상은 레이더를 이용해 전자기파를 방사하여 표적에 맞고 다시 되돌아오는 신호를 이용하여 형성할 수 있으며, 표적의 유무 판별과 식별을 위해 사용하는 보편적인 수단중 하나이다. 본 논문에서는 계단 첩 파형(Stepped Chrip Waveform: SCW)의 주파수 영역에서의 합성과 서브-샘플링(sub-sampling) 방법을 이용하여 초점이 맞는 고해상도의 ISAR 영상을 형성하는 방법을 소개한다. 기존의 계단 주파수 파형(stepped freuqnecy waveform)을 이용하는 방법은 낮은 펄스 반복 주기로 인하여 비모호 거리(unambiguous range)가 짧아 고스트(ghost) 현상이 발생하는 문제점이 발생하지만, 이는 SCW를 이용한 ISAR 영상 형성 방법을 통해 해결할 수 있다. 본 논문에서는 산란점들로 구성된 보잉-737 표적이 속도와 가속도를 가지고 움직인다고 가정한 후 제안한 방법으로 고해상도의 ISAR 영상을 형성하였다.

생체 신호와 비전 정보의 융합을 통한 스마트 휴먼-컴퓨터 인터페이스 (Smart HCI Based on the Informations Fusion of Biosignal and Vision)

  • 강희수;신현출
    • 전자공학회논문지SC
    • /
    • 제47권4호
    • /
    • pp.47-54
    • /
    • 2010
  • 본 논문에서는 3차원 공간에서의 직관적이며 자연스러운 손동작을 통해 기존의 컴퓨터 인터페이스를 대체할 수 있는 새로운 인터페이스를 제안한다. 제안하는 인터페이스는 커서의 이동 제어와 명령 제어의 기능을 3차원 공간에서 마우스란 매개체 없이 손의 움직임만으로 수행할 수 있다. 명령 제어를 위한 손가락 동작은 손목에서 얻은 근전도 신호를 통해 추론하며, 손가락 동작의 종류는 4가지(좌클릭, 우클릭, 홀드, 릴리즈)로 마우스의 모든 기능을 표현할 수 있다. 또한 컴퓨터 화면상 커서의 상하좌우 움직임 제어는 손의 이동을 통하여 이루어지며 이는 영상 정보처리를 통하여 구현하였다. 손가락 동작 추론을 위해 지표로는 근전도 신호의 엔트로피가 사용되었으며, 가우시안 모델링과 최우추정법을 이용하였다. 커서의 움직임 제어를 위한 영상처리에는 색상인식을 통하여 손가락 끝에 부착한 마커 영역의 위치 좌표를 얻고, 그 좌표의 중심점을 구하여 커서의 이동 제어를 구현하였다. 손가락 움직임 추론을 통한 명령 제어의 성공률은 95% 이상이며 커서 이동제어는 실시간 지연 없이 자연스러운 수행이 가능하였다. 전체 시스템을 직접 구현하여 성능 및 유용성에 대하여 확인하였다.

전이 학습을 이용한 선형 이송 로봇의 정렬 이상진단 시스템 (A Diagnosis system of misalignments of linear motion robots using transfer learning)

  • 홍수빈;이영대;박아름;문찬우
    • 문화기술의 융합
    • /
    • 제10권3호
    • /
    • pp.801-807
    • /
    • 2024
  • 선형 로봇은 자동화 시스템에서 부품의 이송이나 위치 결정에 널리 사용되며 보통 높은 정밀도가 요구된다. 선형 로봇을 응용한 시스템의 제작회사에서는 로봇의 이상 유무를 작업자가 판단하는데, 작업자의 숙련도에 따라 이상 상태를 판단하는 정확도가 달라진다. 최근에는 인공지능 등의 기술을 사용하여 로봇 스스로 이상을 검출하는 방법에 관한 연구가 진행되고 있다. 본 논문에서는 전이 학습을 이용하여 선형 로봇의 볼 스크류 정렬 이상과 선형 레일 정렬 이상을 검출하는 시스템을 제안하고 가속도 센서와 토크 센서 정보를 이용한 별개의 실험을 통해 제안한 시스템의 이상 검출 성능을 검증 및 비교한다. 센서로부터 얻어진 신호를 스펙트로그램 이미지로 변환한 후, 영상 인식 인공지능 분류기를 사용하여 이상의 종류를 진단하였다. 제안한 방법은 선형 로봇뿐만 아니라 일반적인 산업용 로봇에도 적용할 수 있을 것으로 기대한다.

다양한 측정 환경 및 반사 조건에 대한 시각안전 LIDAR 신호 분석 (Analysis of Eye-safe LIDAR Signal under Various Measurement Environments and Reflection Conditions)

  • 한문현;최규동;서홍석;민봉기
    • 한국광학회지
    • /
    • 제29권5호
    • /
    • pp.204-214
    • /
    • 2018
  • LIDAR는 정밀 측정이 가능한 특성을 기반으로 정확한 정보 획득과 고해상도 3차원 영상 구현에 유리하기 때문에 사용자의 개입 없이 정확한 정보 획득과 판단이 요구되는 자율 주행 시스템에 필수적으로 적용되고 있다. 최근 LIDAR를 접목한 자율 주행 시스템이 인간의 생활권 안에서 활용되면서 시각안전 문제에 대한 해결과 함께 다양한 환경에서 정확한 장애물 인식을 통한 신뢰성 있는 판단이 요구되고 있다. 본 논문에서는 1550 nm 시각안전 광원을 활용한 Single-Shot LIDAR system (SSLs)을 구성하고 다양한 측정 환경, 반사 물질, 물질의 각도에 대한 LIDAR 신호 분석 방법과 결과를 보고한다. 실내, 주간, 야간의 환경에서 25 m 거리에 위치한 5% 알루미늄 반사판과 건물 벽을 활용하여 각 측정 환경에서 반사율이 다른 물질에 대한 신호를 분석하고, 다양한 각도를 갖는 실제 장애물을 고려하여 반사 물질의 각도 변화에 대한 신호 분석도 진행하였다. 이러한 신호 분석은 수신 정보의 신뢰도 판별을 위한 SNR과 거리 정보 정확성의 지표인 타이밍 지터를 활용하여 측정 환경 및 반사 조건과 LIDAR 신호 간의 상관관계 확인이 가능한 장점이 있다.

뇌의 확산강조 영상에서 b-value의 변화에 따른 신호강도, 현성확산계수에 관한 비교 분석 : 확산강조 에코평면영상($T_2^*$ 및 FLAIR)기법 중심으로 (Comparative Analysis of Signal Intensity and Apparent Diffusion Coefficient at Varying b-values in the Brain : Diffusion Weighted-Echo Planar Image ($T_2^*$ and FLAIR) Sequence)

  • 오종갑;임중열
    • 대한방사선기술학회지:방사선기술과학
    • /
    • 제32권3호
    • /
    • pp.313-323
    • /
    • 2009
  • 확산강조영상 (diffusion weighted image, DWI)은 급성 뇌경색, 뇌종양, 뇌백질 질환, 뇌 막질의 확산 정도 등 여러 뇌질환의 진단을 획기적으로 향상시켰으며 그 활용도가 증가하고 있다. 본 연구는 $10{\sim}60$대 환자들의 뇌를 대상으로 두 기법간의 신호강도, 현성확산계수의 평균치를 측정하였다. 그 결과, 확산강조영상에서의 신호강도 평균값은 편도체부 (amygdala)가 가장 높고, 뇌척수액(cerebrospinal fluid)에서 가장 낮았다. 현성확산계수의 평균값은 뇌척수액이 높고, 교뇌 (pons)가 낮게 측정되었다. 확산강조 신호강도와 현성확산계수의 평균값은 $T_2^*$-DW-EPI 기법이 FLAIR-DW-EPI 기법보다 높고, b-value의 변화에 따른 평균값은 두 기법의 b-value에 모두 반비례하였다. 또한 뇌경색환자의 뇌의 시간 경과에 따른 분석결과, 초급성뇌경색 환자의 일반적인 MR 영상에서는 병변부분이 명확하지 않았으나 확산강조영상에서는 고신호강도로 나타났다. 출혈성 뇌경색, 급성 뇌경색 등 여러질환별로 분석한 결과 그 두 기법의 특성에 따라 신호강도의 값이 차이가 클수록 현성확산계수는 낮게 나타났다. 결론적으로 뇌 질환이 자주 발생되는 부위와 뇌 질환의 확산강조 신호강도 및 현성확산계수 값은 b-value의 변환과 영상기법에 따라 각각 다르게 나타났다. 이러한 정량적인 결과를 바탕으로 보다 안정적인 기법과 적절한 b-value 값을 이용하여 검사를 한다면 여러 뇌의 질환 및 병변 등을 발견, 판독하는 것뿐만 아니라 정상부위나 질환에 따른 기법별 신호의 인지를 통한 정확한 질병 진단과 치료에 중요한 의미가 있다고 사료된다.

  • PDF

고객 맞춤형 서비스를 위한 관객 행동 기반 감정예측모형 (The Audience Behavior-based Emotion Prediction Model for Personalized Service)

  • 유은정;안현철;김재경
    • 지능정보연구
    • /
    • 제19권2호
    • /
    • pp.73-85
    • /
    • 2013
  • 정보기술의 비약적 발전에 힘입어, 오늘날 기업들은 지금까지 축적한 고객 데이터를 기반으로 맞춤형 서비스를 제공하는 것에 많은 관심을 가지고 있다. 고객에게 소구하는 맞춤형 서비스를 효과적으로 제공하기 위해서는 우선 그 고객이 처한 상태나 상황을 정확하게 인지하는 것이 중요하다. 특히, 고객에게 서비스가 전달되는 이른바 진실의 순간에 해당 고객의 감정 상태를 정확히 인지할 수 있다면, 기업은 더 양질의 맞춤형 서비스를 제공할 수 있을 것이다. 이와 관련하여 사람의 얼굴과 행동을 이용하여 사람의 감정을 판단하고 개인화 서비스를 제공하기 위한 연구가 활발하게 이루어지고 있다. 얼굴 표정을 통해 사람의 감정을 판단하는 연구는 좀 더 미세하고 확실한 변화를 통해 정확하게 감정을 판단할 수 있지만, 장비와 환경의 제약으로 실제 환경에서 다수의 관객을 대상으로 사용하기에는 다소 어려움이 있다. 이에 본 연구에서는 Plutchik의 감정 분류 체계를 기반으로 사람들의 행동을 통해 감정을 추론해내는 모형을 개발하는 것을 목표로 한다. 본 연구는 콘텐츠에 의해 유발된 사람들의 감정적인 변화를 사람들의 행동 변화를 통해 판단하고 예측하는 모형을 개발하고, 4가지 감정 별 행동 특징을 추출하여 각 감정에 따라 최적화된 예측 모형을 구축하는 것을 목표로 한다. 모형 구축을 위해 사람들에게 적절한 감정 자극영상을 제공하고 그 신체 반응을 수집하였으며, 사람들의 신체 영역을 나누었다. 특히, 모션캡쳐 분야에서 널리 쓰이는 차영상 기법을 적용하여 사람들의 제스쳐를 추출 및 보정하였다. 이후 전처리 과정을 통해 데이터의 타임프레임 셋을 20, 30, 40 프레임의 3가지로 설정하고, 데이터를 학습용, 테스트용, 검증용으로 구분하여 인공신경망 모형을 통해 학습시키고 성과를 평가하였다. 다수의 일반인들을 대상으로 수집된 데이터를 이용하여 제안 모형을 구축하고 평가한 결과, 프레임셋에 따라 예측 성과가 변화함을 알 수 있었다. 감정 별 최적 예측 성과를 보이는 프레임을 확인할 수 있었는데, 이는 감정에 따라 감정의 표출 시간이 다르기 때문인 것으로 판단된다. 이는 행동에 기반한 제안된 감정예측모형이 감정에 따라 효과적으로 감정을 예측할 수 있으며, 실제 서비스 환경에서 사용할 수 있는 효과적인 알고리즘이 될 수 있을 것으로 기대할 수 있다.