• Title/Summary/Keyword: 객체 인식

Search Result 1,249, Processing Time 0.043 seconds

Rotated object recognition based on corner feature points in mobile environment (모바일 환경 응용을 위한 코너 특징점 기반의 회전 객체 검출)

  • Kim, Dae-Hwan;Piao, Jin-Chun;Kim, Shin-Dug
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2013.07a
    • /
    • pp.23-26
    • /
    • 2013
  • 최근 모바일 장치의 영상 데이터 처리 능력 확대와 더불어 사용자가 요구하는 다양한 영상 데이터의 효율적인 인식 기술 연구가 요구되어지고 있다. 모바일 환경은 고성능 PC 환경과 달리 저사양의 CPU와 메모리를 탑재하고 있어, 영상에서 원하는 객체를 인식하기 위한 기존의 방법론으로는 사용자 요구를 실시간으로 충족하기 어려운 부분이 존재한다. 이에 모바일 환경에 맞는 객체 인식 방법론의 개발이 요구된다. 모바일 환경에서 실시간으로 객체 인식을 하기 위하여, 본 논문에서는 객체 코너 정보를 이용한 Harris corner detector[1]로부터 객체의 특징점을 추출하고, 이를 바탕으로 하여 영상내의 객체 정보 인식 방법을 제안한다. 제안하는 방법에 의해, 입력 영상에서 객체의 코너 정보를 빠르게 추출, 기존 특징점과의 비교를 통하여 영상 내부의 객체 인식을 진행한다. 일반적으로, 회전된 특징점 객체의 정보는 객체의 회전 정도에 따라 코너 픽셀 색상 정보의 변화가 발생하게 된다. 특징점의 색상값은 객체의 회전 정도에 영향을 받아 주변의 픽셀값과 혼합되는 특성이 존재한다. 본 논문에서는 회전 변경된 픽셀 색상값의 영향을 분석하여, 회전된 객체의 특징점 추출 및 객체 검출에 반영하도록 하여, 영상 내부의 회전된 객체 검출의 수행에 효과적으로 이용될 수 있도록 한다. 특징점의 코너 정보를 이용하여 객체를 인식하는 것은, 객체의 인식률은 다소 감소하더라도 모바일 환경에서 계산량의 감소를 통한 실시간 활용이 가능하도록 한다. 이러한 특성은 저성능 CPU와 메모리에서도 회전된 객체의 인식을 수행할 수 있게 하는데 상당히 효과적이다.

  • PDF

The Design of Context-Aware Middleware Architecture for Emotional Awareness Using Categorization of Feeling Words (감정표현단어 범주화 기반의 감정인식을 위한 상황인식 미들웨어 구조의 설계)

  • Kim, Jin-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2014.04a
    • /
    • pp.998-1000
    • /
    • 2014
  • 상황인식 컴퓨팅 환경에서 가장 핵심적인 부분은 서비스를 제공받는 객체의 상황(Context)을 인식하고 정보화하여 그 상황에 따라서 객체 중심의 지능화된 최적의 서비스를 제공해 주는 것이다. 이러한 지능화된 최적의 서비스를 제공하기 위해서는 최적의 상황을 인식하는 상황인식 컴퓨팅 기술 연구와 그 상황을 설계하는 모델링 기술이 중요하다. 또한, 인간과 컴퓨터간의 의사소통을 원활히 할 수 있는 최적의 상황을 인식해야 한다. 현재까지 연구된 대부분의 상황인식 컴퓨팅 기술은 상황정보로 객체의 위치정보와 객체의 식별정보만을 주로 사용하고 있다. 그러므로 지정된 공간에서 상황을 발생시키는 객체를 식별하는 일과 식별된 객체가 발생하는 상황의 인식에만 주된 초점을 두고 있다. 그러나 본 논문에서는 객체의 감정표현단어를 상황정보로 사용하여 감정인식을 위한 상황인식 미들웨어로서 ECAM의 구조를 제안한다. ECAM은 감정표현단어의 범주화 기술을 기반으로 온톨로지를 구축하여 객체의 감정을 인식한다. 객체의 감정표현단어 정보를 상황정보로 사용하고, 인간의 감정에 영향을 미칠 수 있는 환경정보(온도, 습도, 날씨)를 추가하여 인식한다. 객체의 감정을 표현하기 위해서 OWL 언어를 사용하여 온톨로지를 구축하였으며, 감정추론 엔진은 Jena를 사용하였다.

A Survey of Real-Time Object Recognition (실시간 객체인식을 위한 이미지 처리기술 분석)

  • Park, Ju-Hyeok;Ha, Ok-Kyoon;Jun, Yong-Kee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2017.01a
    • /
    • pp.35-36
    • /
    • 2017
  • 실시간 객체 인식은 카메라로부터 입력받은 영상 내에 존재하는 객체를 실시간으로 처리하는 기술로써 정확한 인식률과 빠른 인식 속도를 가져야 한다. 하지만 인식 속도가 보장되지 않으면 실시간으로 객체를 인식 할 수 없고 인식률이 보장되지 않으면 객체 인식을 통해 구현한 기능이 올바르게 동작하지 않을 수 도 있다. 따라서 본 논문에서는 실시간으로 객체를 인식하는 기술을 분류하고 연구 동향을 소개한다. 그리고 실시간 객체 인식을 위한 향후 연구 방향을 제시한다.

  • PDF

Motion Recognition using Fuzzy Sets and Neural-nets (퍼지 집합과 신경망을 이용한 동작 인식)

  • Nam, Seong-Hyeon;Kim, Gwang-Yong;Kim, Hyeon-Suk;Hwang, Jong-Seon;Yang, Yeong-Gyu
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.10
    • /
    • pp.1028-1037
    • /
    • 2000
  • 비디오 영상에서 자연스럽게 움직이는 객체에 대한 인식방법을 제안한다. 이 객체는 자유자재로 움직이며, 움직임의 방향을 예측하기 어렵고 빠르게 움직인다. 객체의 동작은 그 객체가 고유하게 가지고 있는 움직임의 특성과 객체의 주변상황에 밀접한 관계가 있다. 본 논문은 자연스럽고 동적인 상황에서 객체의 동작을 분석하고 인식하는 방법을 제안한다. 객체의 동작을 인식하기 위해 동작을 구분하고 분석하여 동작의 대표특징을 추출한다. 그리고, 하나의 객체 주위에 다가오는 다른 객체와의 상관관계를 표현한다. 또한, 동작인식을 위한 알고리즘을 제안한다. 즉, 구간별 포아송(Poisson) 넌-제로(Non-zero)확률 분포를 통한 방법과 퍼지와 신경망의 결합에 의한 인식방법을 제안한다. 그리고 제안된 방법들로 구현된 인식결과를 비교 분석하고 평가한다. 우리의 알고리즘은 축구영역에서 시험된다. 우리는 동작인식의 성공뿐 아니라 실패의 경우도 설명하며 미래의 연구할 과제를 제안한다.

  • PDF

The Design of Context-Aware Middleware Architecture for Processing Emotional Information (감성정보를 처리하는 상황인식 미들웨어의 구조 설계)

  • Kim, Jin-Bong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.11a
    • /
    • pp.889-890
    • /
    • 2009
  • 유비쿼터스 컴퓨팅 환경에서 가장 핵심적인 부분은 상황(Context)을 인식하고, 그 상황에 따라서 최적의 서비스를 제공해 주는 것이다. 이러한 최적의 서비스를 제공하기 위해서는 최적의 상황을 인식하는 상황인식 컴퓨팅 기술 연구와 그 상황을 설계하는 모델링 기술들이 중요하다. 현재 대부분의 상황인식 컴퓨팅 기술은 지정된 공간에서 상황을 발생시키는 객체를 식별하는 일과 식별된 객체가 발생하는 상황의 인식에 주된 초점을 두고 있다. 또한, 상황정보로는 객체의 위치 정보만을 주로 사용하고 있다. 그러나 본 논문에서는 객체의 감성어휘를 상황정보로 사용하여 감성을 인식할 수 있는 상황인식 미들웨어로서 EIP-CAM의 구조를 제안한다. EIP-CAM 구조의 모델링은 상황인식 모델링과 서비스 모델링으로 구성된다. 또한, 감성어휘의 범주화 기술을 기반으로 온톨로지를 구축하여 객체의 감성을 인식한다. 객체의 감성어휘를 상황정보로 사용하고, 부가적으로 환경정보(온도, 습도, 날씨 등)를 추가하여 인식한다.. 객체의 감성을 표현하기 위해서 OWL 언어를 사용하여 온톨로지를 구축하였으며, 감성추론 엔진은 Jena를 사용했다.

Ontology-based Object-Image Recognition by Using Information on Inner-Objects (내부 객체 정보를 이용한 온톨로지 기반의 객체 영상 인식)

  • Lee, In-K.;Seo, Suk-T.;Seok, Ji-Kwon;Kwon, Soon-H.
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.19 no.6
    • /
    • pp.760-765
    • /
    • 2009
  • Since the features in object-images such as color and shape cannot clearly express the characteristic of objects, those features lead to vagueness of object-image recognition. Recently there have been studied on object-image recognition based on knowledge base in order to reduce the vagueness. However, because images are represented by numerical information but knowledge bases are represented by conceptual information, combining two kinds of information is difficult. In this paper, we compose knowledge base by using ontology to reduce the gap between the two kinds of information, and propose a method for object-image recognition to reduce the vagueness by using information on inner-object. Moreover, we confirm the usefulness of the proposed method through the experiments on object-image recognition in fruit domain.

The Design of Context-Aware Middleware Architecture for Processing Facial Expression Information (얼굴표정정보를 처리하는 상황인식 미들웨어의 구조 설계)

  • Jin-Bong Kim
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2008.11a
    • /
    • pp.649-651
    • /
    • 2008
  • 상황인식 컴퓨팅 기술은 넓게 보면 유비쿼터스 컴퓨팅 기술의 일부분으로 볼 수 있다. 그러나 상황인식 컴퓨팅 기술의 적용측면에 대한 접근 방법이 유비쿼터스 컴퓨팅과는 다르다고 할 수 있다. 지금까지 연구된 상황인식 컴퓨팅 기술은 지정된 공간에서 상황을 발생시키는 객체를 식별하는 일과 식별된 객체가 발생하는 상황의 인식에 주된 초점을 두고 있다. 또한, 상황정보로는 객체의 위치 정보만을 주로 사용하고 있다. 그러나 본 논문에서는 객체의 얼굴표정을 상황정보로 사용하여 감성을 인식할 수 있는 상황인식 미들웨어로서 CM-FEIP의 구조를 제안한다. CM-FEIP의 가상공간 모델링은 상황 모델링과 서비스 모델링으로 구성된다. 또한, 얼굴표정의 인식기술을 기반으로 온톨로지를 구축하여 객체의 감성을 인식한다. 객체의 얼굴표정을 상황정보로 사용하고, 무표정일 경우에는 여러 가지 환경정보(온도, 습도, 날씨 등)를 이용한다. 온톨로지를 구축하기 위하여 OWL 언어를 사용하여 객체의 감성을 표현하고, 감성추론 엔진은 Jena를 사용한다.

사용자-객체 상호작용을 위한 복잡 배경에서의 객체 인식

  • Bae, Ju-Han;Hwang, Yeong-Bae;Choe, Byeong-Ho;Kim, Hyo-Ju
    • Information and Communications Magazine
    • /
    • v.31 no.3
    • /
    • pp.46-53
    • /
    • 2014
  • 사용자-객체 상호작용을 위해서는 영상 내 객체의 종류와 위치를 정확하게 파악하여 사용자가 객체에 관련된 행동을 취할 경우, 그에 맞는 상호작용을 수행해야 한다. 이러한 객체인식에 널리 사용되는 지역 불변 특징량 기반의 방법론은 복잡한 배경이나 균일 물체에 대하여 잘못된 매칭으로 인식률이 저하된다. 본고에서는 이를 해결하기 위해, 컬러와 깊이 근접도 기반 깊이 계층을 나누고, 복잡 배경으로부터 생기는 잘못된 특징점 대응을 최소화 하기 위해 각 깊이 계층과 인식 물체 영상간의 특징점 대응을 수행한다. 또한, 각 깊이 계층영역에서 색상 히스토그램 재투영으로 객체의 위치를 추정하고 추정 영역과 인식 물체 영상간의 생상 및 깊이 유사도를 판단한다. 최종적으로, 복잡 배경 효과를 최소화한 특징점 대응의 수, 색상 및 컬러 유사도를 고려하여 신뢰도를 측정하여 객체를 인식하게 되며, 이를 통해 복잡한 배경에서도 사용자와 객체간의 유연한 상호작용이 가능해진다.

AI Learning Cookie Image Data Set Construction (AI학습 맞춤형 이미지 데이터셋 구성에 대한 연구)

  • Lee, JoSun;Ko, Byeongguk;Kang, Eunsu;Choi, Hajin;Kim, Jun O;Lee, Byongkwon
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2020.07a
    • /
    • pp.347-349
    • /
    • 2020
  • 본 논문에서는 컴퓨팅 이미지 객체인식 시스템인 YOLO 성능 향상을 위한 효율적인 이미지 마킹 정책을 제안한다. 이 정책은 이미지 데이터를 통한 객체인식 학습 YOLO의 객체인식을 높이고 다른 객체와의 구분을 최대화하여 학습 모델의 성능을 높인다. YOLO의 성능을 최대화하기 위하여 YOLO의 학습을 몇 번 시킬 것인지 무엇을 객체로 인식시킬지 동적으로 할당한다. 이때 학습 싸이클에 따라 객체의 인식이 달라지며 어느 싸이클에서 가장 효율적인지, 왜 다른 객체를 같이 학습시켜야 하는지 중명한다. 본 논문에서는 YOLO의 싸이클과 다른 객체 학습에 있어서 최적의 객체인식 싸이클과 학습 성능 향상 면에서 우수함을 보인다.

  • PDF

Night Vision Pedestrian Detection using Contrast Enhancement Algorithm (대비 개선 기법을 이용한 야간 보행자 검출)

  • Han, Tae Young;Song, Byung Cheol
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2016.06a
    • /
    • pp.222-223
    • /
    • 2016
  • 보행자 인식을 위한 컴퓨터 비전 알고리즘은 야간 상황과 같이 저조도 환경에서는 인식 성능이 떨어지고 있다. 이로 인하여 최근 저조도 환경에서 촬영된 영상으로 야간 상황에서 객체 인식 성능을 높이는 기법들이 연구되고 있다. 야간 환경은 주간 환경과는 다르게 광량이 적기 때문에 인간의 시각으로도 객체 인식에 어려움이 있고 일반적인 카메라로 촬영된 영상으로 객체 인식이 어렵다. 최근에는 NIR 카메라를 이용하여 촬영된 영상으로 야간 보행자 인식 알고리즘이 개발되고 있으나, 인식률과 객체 인식 가능 거리 및 범위가 한정적이다. 또한 기존의 야간 보행자 검출 기법들은 방대한 연산량이 필요하기 때문에 실시간 객체 인식이 불가능하다. 본 논문에서는 NIR 카메라로부터 촬영된 영상으로 preprocessing 후 ACF(Aggregated Channel Feature)를 이용하여 최근 연구되고 있는 카메라 움직임이 있는 야간 환경에서 보행자 인식 알고리즘을 PC 및 TK1 Board 환경에서 구현하고 객체 인식률을 높인다.

  • PDF