• Title/Summary/Keyword: 영상 식별

Search Result 672, Processing Time 0.036 seconds

A Multi-Resolution Distance Measure in Two Dimensional Images Using Proposed Grey Block Distance Algorithms (제안된 GBD 알고리즘을 이용한 이차원 영상에서의 다중해상도 거리 측정)

  • Hong, Jun-Sik;Jung, Soon-Won
    • Proceedings of the Korea Contents Association Conference
    • /
    • 2006.05a
    • /
    • pp.392-397
    • /
    • 2006
  • In this paper, we have proposed a revised GBD algorithm to make a relative identification more easily between 2-Dimensional images being compared with the well-known GBD(Grey Block Distance) algorithm. The method proposed here can measure the information about both the whole images and partial image. Also it can improve the performance of the existing GBD algorithm to do not loose the information of the partial image which has been changed rapidly in the 2-D image application. From the results of the experimental simulation we can say that the proposed method can be identified 2-D images more easily than that of the existing GBD algorithm.

  • PDF

Iris Detection at a Distance by Non-volunteer Method (비강압적 방법에 의한 원거리에서의 홍채 탐지 기법)

  • Park, Kwon-Do;Kim, Dong-Su;Kim, Jeong-Min;Song, Young-Ju;Koh, Seok-Joo
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2018.05a
    • /
    • pp.705-708
    • /
    • 2018
  • Among biometrics commercialized for security, iris recognition technology has the most excellent security for the probability of the match between individuals is the lowest. Current commercialized iris recognition technology has excellent recognition ability, but this technology has a fatal drawback. Without the user's active cooperation, it cannot recognize the iris correctly. To make up for this weakness, recent trend of iris recognition development mounts a non-volunteering, unconstrained method. According to this information, the objective of this research is developing a module that can identify people iris from a video acquired by high performance infrared camera in a range of 3m and in a involuntary way. For this, we import images from the video and find people's face and eye positions from the images using Haar classifier trained through Cascade training method. finally, we crop the iris by Hough circle transform and compare it with data from the database to identify people.

  • PDF

A Study on Cross-Association between UCI Identification System and Content-based Identifier for Copyright Identification and Management of Broadcasting Content (방송콘텐츠 저작권 식별관리를 위한 UCI 표준식별체계와 내용기반 식별정보의 상호연계 연구)

  • Kim, Joo-Sub;Nam, Je-Ho
    • Journal of Broadcast Engineering
    • /
    • v.14 no.3
    • /
    • pp.288-298
    • /
    • 2009
  • In this paper, we propose a scheme to associate content-based video signature with Universal Content Identifier (UCI) system of broadcast content for copyright identification and management. Note that content-based video signature can identify a previously distributed content since it is directly extracted from content itself without allocation process of identifier such as UCI. Thus, we design the schema of UCI application metadata, which provides a video signature in order to consistently maintain a systemic link between UCI and the video signature. Also, we present the scenarios of copyright identification, management and additional service, which are based on transmission and management mechanism of video signature with UCI identification system.

사용자 추적, 인식을 위한 영상인식 기술개발 동향

  • Kim, Seung-Hun;Jeong, Il-Gyun;Park, Chang-U;Hwang, Jeong-Hun
    • ICROS
    • /
    • v.17 no.1
    • /
    • pp.18-24
    • /
    • 2011
  • 영상인식기술은 지능로봇 또는 지능형 홈이 하나 또는 다수의 영상정보를 이용하여 일상 생활 환경에서 대상 객체의 유무, 객체의 식별, 객체의 형상 추출, 객체의 위치 파악등을 자동으로 수행하는 기술을 통칭한다. 이러한 영상인식기술은 지능형 로봇과 지능형 홈, 지능형 안전시스템 등 앞으로 생활환경을 급속히 변화시킬 것으로 예상되는 첨단기기에서 가장 중요한 핵심기술이다.

Road Extraction by the Orientation Perception of the Isolated Connected-Components (고립 연결-성분의 방향성 인지에 의한 도로 영역 추출)

  • Lee, Woo-Beom
    • The Journal of the Institute of Internet, Broadcasting and Communication
    • /
    • v.12 no.1
    • /
    • pp.75-81
    • /
    • 2012
  • Road identification is the important task for extracting a road region from the high-resolution satellite images, when the road candidates is extracted by the pre-processing tasks using a binarization, noise removal, and color processing. Therefore, we propose a noble approach for identifying a road using the orientation-selective spatial filters, which is motivated by a computational model of neuron cells found in the primary visual cortex. In our approach, after the neuron cell typed spatial filters is applied to the isolated connected-labeling road candidate regions, proposed method identifies the region of perceiving the strong orientation feature with the real road region. To evaluate the effectiveness of the proposed method, the accuracy&error ratio in the confusion matrix was measured from road candidates including road and non-road class. As a result, the proposed method shows the more than 92% accuracy.

Moving Objects Identification Using FAST Corner Points and Earth Mover's Distnace (FAST 코너점과 Earth Mover's Distance를 이용한 다수의 이동물체 식별 알고리즘)

  • Lee, Jung Sik;Woo, Byong Jo;Joo, Young Hoon
    • Proceedings of the KIEE Conference
    • /
    • 2015.07a
    • /
    • pp.1359-1360
    • /
    • 2015
  • 본 논문에서는 FAST 코너점과 EMD를 이용한 다수의 이동물체 식별 알고리즘을 제안한다. 제안하는 방법은 먼저 영상 내의 이동물체를 추출하기 위한 기법으로 GMM을 기반으로 배경을 모델링 하며, 모델링 된 배경에서 추출된 이동물체를 인식하기 위해 라벨링 기법을 수행한다. 그 다음 인식된 다수의 이동물체 식별을 위해 FAST 코너점과 색상 기반의 EMD 알고리즘을 융합한 다수의 이동물체 식별 방법을 제안하며, 최종적으로, 실내 환경 내에서의 실험을 통해 제안한 방법의 응용 가능성을 증명한다.

  • PDF

An Evaluation of Inference Acceleration for Drone-based Real-time Object Detection (드론 기반 실시간 객체 식별을 위한 추론 가속화 평가)

  • Kwon, Seung-Sang;Moon, Yong-Hyuk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.408-410
    • /
    • 2022
  • 최근 데이터 획득 위치에 가장 근접하고, 저 수준의 계산력을 제공하는 엣지 기기를 중심으로 직접 딥러닝 추론을 수행하고자 하는 요구가 증가하고 있다. 본 논문에서는 드론에서 촬영한 교통 영상 데이터를 기반으로, 다수의 차량 종류 및 보행자를 식별하는 모델을 Jetson Nano 에 탑재하여 기본 성능을 측정한다. 더불어, 자원제약형 기기 환경에서 TensorRT 와 Deepstream 을 활용하여 객체 식별 모델의 연산 경량화 및 추론 가속화 성능을 극대화하기 위한 구현 및 실험을 수행하여 Anchor-based 및 Anchor-free 객체 식별 모델의 정확도와 실시간 대응력을 평가하고 논의한다.

A standardized procedure on building spectral library for identifying hazardous chemicals mixed in rivers using UAV-based hyperspectral technique (드론 기반 초분광 영상을 활용한 하천수 혼합 유해화학물질 식별을 위한 분광라이브러리 구축 표준화 방안)

  • Gwon, Yeonghwa;Kim, Dongsu;You, Hojun
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2020.06a
    • /
    • pp.161-161
    • /
    • 2020
  • 최근 기후변화와 여름철 고온 등으로 인한 녹조현상, 화학물질 및 유류 유출 등 화학사고로 인한 하천의 수질오염과 관련된 사회적 관심이 높아지고 있다. 특히, 화학사고로 인한 유해화학물질 유출은 인체에 접촉 시 악영향을 끼치며, 대기·수질·토양을 오염시키고 주변 농작물의 변색이나 괴사를 유발하는 등의 피해를 야기하기 때문에 적절한 조치와 대응이 필요하다. 환경부에서는 유해화학물질 유출사고로 인한 국민건강 및 환경상의 위해를 예방하기 위해 화학물질관리법과 화학물질 등록 및 평가에 관한 법률을 제정하여 유해화학물질을 관리하고 화학사고에 대응하고 있다. 그러나, 화학사고 발생 시 공장 인근의 먼지, 악취 등을 감시하기 위해 현장인력에 의존하거나 화학물질의 유출이 우려되는 곳에 제한적으로 검출센서를 설치해 사고를 감시하고 있어 검출센서 미설치 지역에 대한 능동적 탐지가 어렵고, 화학물질의 공간적 분포 탐지가 불가능하여 초동 대응에 한계가 있다. 한편 최근 초분광 영상을 활용하여 물질 고유의 분광특성을 분석함으로써 토지피복, 식생, 수질 등의 식별에 활용되고 있다. 따라서 초분광 센서를 활용한 화학물질 감지 가능성도 보여주고 있지만, 초분광 센서를 활용한 하천의 화학물질 감지를 위한 연구는 미비한 실정이다. 이에 본 연구에서는 유해화학물질 18종을 대상으로 초분광 영상을 이용한 상호 구분이 가능한 지 확인하고자 해당 유해화학물질의 초분광 영상을 촬영하여 분광라이브러리를 구축하였다. 또한 물질별 특성을 보이는 분광밴드의 범위를 지정해 특성 분광라이브러리를 구축하였으며, 해당 과정에 대한 표준 및 절차를 제시하였다. 본 연구에서 제시한 절차에 따라 18종의 유해화학물질 분광라이브러리와 특성 분광라이브러리를 구축한 결과, 유해화학물질의 식별 가능성을 확인하였다. 향후 연구를 통해 유해화학물질 분광라이브러리 데이터베이스를 확대하고, 실시간 모니터링에 적용할 경우 신속한 화학사고 발생여부 감지 및 대응에 활용할 수 있을 것으로 사료된다.

  • PDF

Exploration of deep learning facial motions recognition technology in college students' mental health (딥러닝의 얼굴 정서 식별 기술 활용-대학생의 심리 건강을 중심으로)

  • Li, Bo;Cho, Kyung-Duk
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.26 no.3
    • /
    • pp.333-340
    • /
    • 2022
  • The COVID-19 has made everyone anxious and people need to keep their distance. It is necessary to conduct collective assessment and screening of college students' mental health in the opening season of every year. This study uses and trains a multi-layer perceptron neural network model for deep learning to identify facial emotions. After the training, real pictures and videos were input for face detection. After detecting the positions of faces in the samples, emotions were classified, and the predicted emotional results of the samples were sent back and displayed on the pictures. The results show that the accuracy is 93.2% in the test set and 95.57% in practice. The recognition rate of Anger is 95%, Disgust is 97%, Happiness is 96%, Fear is 96%, Sadness is 97%, Surprise is 95%, Neutral is 93%, such efficient emotion recognition can provide objective data support for capturing negative. Deep learning emotion recognition system can cooperate with traditional psychological activities to provide more dimensions of psychological indicators for health.

Accuracy Analysis of Target Recognition according to EOC Conditions (Target Occlusion and Depression Angle) using MSTAR Data (MSTAR 자료를 이용한 EOC 조건(표적 폐색 및 촬영부각)에 따른 표적인식 정확도 분석)

  • Kim, Sang-Wan;Han, Ahrim;Cho, Keunhoo;Kim, Donghan;Park, Sang-Eun
    • Korean Journal of Remote Sensing
    • /
    • v.35 no.3
    • /
    • pp.457-470
    • /
    • 2019
  • Automatic Target Recognition (ATR) using Synthetic Aperture Radar (SAR) has been attracted attention in the fields of surveillance, reconnaissance, and national security due to its advantage of all-weather and day-and-night imaging capabilities. However, there have been some difficulties in automatically identifying targets in real situation due to various observational and environmental conditions. In this paper, ATR problems in Extended Operating Conditions (EOC) were investigated. In particular, we considered partial occlusions of the target (10% to 50%) and differences in the depression angle between training ($17^{\circ}$) and test data ($30^{\circ}$ and $45^{\circ}$). To simulate various occlusion conditions, SARBake algorithm was applied to Moving and Stationary Target Acquisition and Recognition (MSTAR) images. The ATR accuracies were evaluated by using the template matching and Adaboost algorithms. Experimental results on the depression angle showed that the target identification rate of the two algorithms decreased by more than 30% from the depression angle of $45^{\circ}$ to $30^{\circ}$. The accuracy of template matching was about 75.88% while Adaboost showed better results with an accuracy of about 86.80%. In the case of partial occlusion, the accuracy of template matching decreased significantly even in the slight occlusion (from 95.77% under no occlusion to 52.69% under 10% occlusion). The Adaboost algorithm showed better performance with an accuracy of 85.16% in no occlusion condition and 68.48% in 10% occlusion condition. Even in the 50% occlusion condition, the Adaboost provided an accuracy of 52.48%, which was much higher than the template matching (less than 30% under 50% occlusion).