• 제목/요약/키워드: Automatic Extraction Algorithm

검색결과 296건 처리시간 0.026초

Spatio-Temporal Analysis of Trajectory for Pedestrian Activity Recognition

  • Kim, Young-Nam;Park, Jin-Hee;Kim, Moon-Hyun
    • Journal of Electrical Engineering and Technology
    • /
    • 제13권2호
    • /
    • pp.961-968
    • /
    • 2018
  • Recently, researches on automatic recognition of human activities have been actively carried out with the emergence of various intelligent systems. Since a large amount of visual data can be secured through Closed Circuit Television, it is required to recognize human behavior in a dynamic situation rather than a static situation. In this paper, we propose new intelligent human activity recognition model using the trajectory information extracted from the video sequence. The proposed model consists of three steps: segmentation and partitioning of trajectory step, feature extraction step, and behavioral learning step. First, the entire trajectory is fuzzy partitioned according to the motion characteristics, and then temporal features and spatial features are extracted. Using the extracted features, four pedestrian behaviors were modeled by decision tree learning algorithm and performance evaluation was performed. The experiments in this paper were conducted using Caviar data sets. Experimental results show that trajectory provides good activity recognition accuracy by extracting instantaneous property and distinctive regional property.

안저영상(眼低映像) 해석(解析)을 위한 특징영성(特徵領域)의 분할(分割)에 관한 연구(硏究) (A Study on the Feature Region Segmentation for the Analysis of Eye-fundus Images)

  • 강전권;김승범;구자일;한영환;홍승홍
    • 대한의용생체공학회:학술대회논문집
    • /
    • 대한의용생체공학회 1993년도 추계학술대회
    • /
    • pp.27-30
    • /
    • 1993
  • Information about retinal blood vessels can be used in grading disease severity or as part of the process of automated diagnosis of diseases with ocular menifestations. In this paper, we address the problem of detecting retinal blood vessels and optic disk (papilla) in Eye-fundus images. We introduce an algorithm for feature extraction based on Fuzzy festering(FCM). The results ore compared to those obtained with other methods. The automatic detection of retinal blood vessels and optic disk in the Eye-fundus images could help physicians in diagnosing ocular diseases.

  • PDF

Obstacles modeling method in cluttered environments using satellite images and its application to path planning for USV

  • Shi, Binghua;Su, Yixin;Zhang, Huajun;Liu, Jiawen;Wan, Lili
    • International Journal of Naval Architecture and Ocean Engineering
    • /
    • 제11권1호
    • /
    • pp.202-210
    • /
    • 2019
  • The obstacles modeling is a fundamental and significant issue for path planning and automatic navigation of Unmanned Surface Vehicle (USV). In this study, we propose a novel obstacles modeling method based on high resolution satellite images. It involves two main steps: extraction of obstacle features and construction of convex hulls. To extract the obstacle features, a series of operations such as sea-land segmentation, obstacles details enhancement, and morphological transformations are applied. Furthermore, an efficient algorithm is proposed to mask the obstacles into convex hulls, which mainly includes the cluster analysis of obstacles area and the determination rules of edge points. Experimental results demonstrate that the models achieved by the proposed method and the manual have high similarity. As an application, the model is used to find the optimal path for USV. The study shows that the obstacles modeling method is feasible, and it can be applied to USV path planning.

AWS자료 기반 SVR과 뉴로-퍼지 알고리즘 구현 호우주의보 가이던스 연구 (A Study on Heavy Rainfall Guidance Realized with the Aid of Neuro-Fuzzy and SVR Algorithm Using AWS Data)

  • 임승준;오성권;김용혁;이용희
    • 전기학회논문지
    • /
    • 제63권4호
    • /
    • pp.526-533
    • /
    • 2014
  • In this study, we introduce design methodology to develop a guidance for issuing heavy rainfall warning by using both RBFNNs(Radial basis function neural networks) and SVR(Support vector regression) model, and then carry out the comparative studies between two pattern classifiers. Individual classifiers are designed as architecture realized with the aid of optimization and pre-processing algorithm. Because the predictive performance of the existing heavy rainfall forecast system is commonly affected from diverse processing techniques of meteorological data, under-sampling method as the pre-processing method of input data is used, and also data discretization and feature extraction method for SVR and FCM clustering and PSO method for RBFNNs are exploited respectively. The observed data, AWS(Automatic weather wtation), supplied from KMA(korea meteorological administration), is used for training and testing of the proposed classifiers. The proposed classifiers offer the related information to issue a heavy rain warning in advance before 1 to 3 hours by using the selected meteorological data and the cumulated precipitation amount accumulated for 1 to 12 hours from AWS data. For performance evaluation of each classifier, ETS(Equitable Threat Score) method is used as standard verification method for predictive ability. Through the comparative studies of two classifiers, neuro-fuzzy method is effectively used for improved performance and to show stable predictive result of guidance to issue heavy rainfall warning.

A Review on Advanced Methodologies to Identify the Breast Cancer Classification using the Deep Learning Techniques

  • Bandaru, Satish Babu;Babu, G. Rama Mohan
    • International Journal of Computer Science & Network Security
    • /
    • 제22권4호
    • /
    • pp.420-426
    • /
    • 2022
  • Breast cancer is among the cancers that may be healed as the disease diagnosed at early times before it is distributed through all the areas of the body. The Automatic Analysis of Diagnostic Tests (AAT) is an automated assistance for physicians that can deliver reliable findings to analyze the critically endangered diseases. Deep learning, a family of machine learning methods, has grown at an astonishing pace in recent years. It is used to search and render diagnoses in fields from banking to medicine to machine learning. We attempt to create a deep learning algorithm that can reliably diagnose the breast cancer in the mammogram. We want the algorithm to identify it as cancer, or this image is not cancer, allowing use of a full testing dataset of either strong clinical annotations in training data or the cancer status only, in which a few images of either cancers or noncancer were annotated. Even with this technique, the photographs would be annotated with the condition; an optional portion of the annotated image will then act as the mark. The final stage of the suggested system doesn't need any based labels to be accessible during model training. Furthermore, the results of the review process suggest that deep learning approaches have surpassed the extent of the level of state-of-of-the-the-the-art in tumor identification, feature extraction, and classification. in these three ways, the paper explains why learning algorithms were applied: train the network from scratch, transplanting certain deep learning concepts and constraints into a network, and (another way) reducing the amount of parameters in the trained nets, are two functions that help expand the scope of the networks. Researchers in economically developing countries have applied deep learning imaging devices to cancer detection; on the other hand, cancer chances have gone through the roof in Africa. Convolutional Neural Network (CNN) is a sort of deep learning that can aid you with a variety of other activities, such as speech recognition, image recognition, and classification. To accomplish this goal in this article, we will use CNN to categorize and identify breast cancer photographs from the available databases from the US Centers for Disease Control and Prevention.

묵시적 참조 무결성을 고려한 관계형 스키마 모델의 XML 스키마 모델 변환 알고리즘 (An Algorithm for Translation from RDB Schema Model to XML Schema Model Considering Implicit Referential Integrity)

  • 김진형;정동원;백두권
    • 한국정보과학회논문지:데이타베이스
    • /
    • 제33권5호
    • /
    • pp.526-537
    • /
    • 2006
  • XML 데이타의 효율적인 저장을 위한 가장 대표적인 접근방법은 XML 데이타를 관계형 데이타베이스에 저장하는 것으로 대부분의 데이타가 여전히 관계형 데이타베이스에 저장되어 있다는 현실적 상황을 쉽게 수용할 수 있다는 장점을 지닌다. 이러한 접근 방법은 XML 데이타를 관계형 데이타로 혹은 관계형 데이타를 XML 데이타로 변환 과정이 필수적으로 요구하며, 변환 과정에서 가장 중요한 점은 관계형 스키마 모델의 구조적, 의미적 관계 정보를 XML 스키마 모델에 정확히 반영하는 것이다 지금까지 많은 변환 방법들이 제안되었으나 구조적 의미를 반영하지 못하거나 단순히 명시적으로 정의된 참조 무결성 관계(Referential Integrity Relations)만을 지원하는 문제점을 지닌다. 이 논문에서는 관계형 스키마 모델의 XML 스키마 모델로의 변환 시 초기 관계형 데이타베이스의 묵시적 참조 무결성 관계를 자동적으로 추출하여 이를 변환에 반영할 수 있는 알고리즘을 제안한다. 제안된 알고리즘은 초기 관계형 데이타베이스에 명시적으로 정의되어 있는 참조 무결성 관계는 물론 묵시적인 참조 무결성 관계까지 변환 과정에 반영함으로써 보다 정확한 XML 데이타 모델 생성을 가능하게 한다.

퍼지 기반 잡음 제거 방법과 ART2 기반 자가 생성 지도 학습 알고리즘을 이용한 컨테이너 인식 시스템 (Container Image Recognition using Fuzzy-based Noise Removal Method and ART2-based Self-Organizing Supervised Learning Algorithm)

  • 김광백;허경용;우영운
    • 한국정보통신학회논문지
    • /
    • 제11권7호
    • /
    • pp.1380-1386
    • /
    • 2007
  • 본 논문에서는 퍼지 기반 잡음 제거 방법과 ART2 기반 자가 생성 지도 학습 알고리즘을 이용한 운송 컨테이너 식별자 인식 시스템을 제안한다. 일반적으로 운송 컨테이너의 식별자들은 글자색이 검정색 또는 흰색으로 이루어져 있는 특징이 있다. 이러한 특성을 고려하여 원 컨테이너 영상에 대해 검은색과 흰색을 제외한 모든 부분을 잡음으로 처리하기 위해 퍼지를 이용한 잡음 판단 방법을 적용하여 식별자 영역과 잡음을 구별한다. 그리고 Sobel 마스크를 이용하여 에지를 검출하고, 추출된 에지를 이용하여 수직 블록과 수평 블록을 검출하여 컨테이너의 식별자 영역을 추출하고 이진화한다. 이진화된 식별자 영역에 대해 8 방향 윤곽선 추적 알고리즘을 적용하여 개별 식별자를 추출한다. 개별 식별자 인식을 위해 ART2 기반 자가 생성 지도 학습 알고리즘을 제안하여 개별 식별자 인식에 적용한다. ART2 기반 자가 생성 지도 학습 알고리즘은 일반화된 델타 학습 방법과 Delta-bar-Delta 알고리즘을 적용하여 학습 성능을 개선한다. 실제 컨테이너 영상을 대상으로 실험한 결과, 기존의 식별자 추출 방법보다 제안된 식별자 추출 방법이 개선되었다. 그리고 기존의 식별자 인식 알고리즘보다 제안된 ART2 기반 자가 생성 지도 학습 알고리즘이 식별자의 학습 및 인식에 있어서 우수한 성능이 있음을 확인하였다.

Development and Usability Testing of a User-Centered 3D Virtual Liver Surgery Planning System

  • Yang, Xiaopeng;Yu, Hee Chul;Choi, Younggeun;Yang, Jae Do;Cho, Baik Hwan;You, Heecheon
    • 대한인간공학회지
    • /
    • 제36권1호
    • /
    • pp.37-52
    • /
    • 2017
  • Objective: The present study developed a user-centered 3D virtual liver surgery planning (VLSP) system called Dr. Liver to provide preoperative information for safe and rational surgery. Background: Preoperative 3D VLSP is needed for patients' safety in liver surgery. Existing systems either do not provide functions specialized for liver surgery planning or do not provide functions for cross-check of the accuracy of analysis results. Method: Use scenarios of Dr. Liver were developed through literature review, benchmarking, and interviews with surgeons. User interfaces of Dr. Liver with various user-friendly features (e.g., context-sensitive hotkey menu and 3D view navigation box) was designed. Novel image processing algorithms (e.g., hybrid semi-automatic algorithm for liver extraction and customized region growing algorithm for vessel extraction) were developed for accurate and efficient liver surgery planning. Usability problems of a preliminary version of Dr. Liver were identified by surgeons and system developers and then design changes were made to resolve the identified usability problems. Results: A usability testing showed that the revised version of Dr. Liver achieved a high level of satisfaction ($6.1{\pm}0.8$ out of 7) and an acceptable time efficiency ($26.7{\pm}0.9 min$) in liver surgery planning. Conclusion: Involvement of usability testing in system development process from the beginning is useful to identify potential usability problems to improve for shortening system development period and cost. Application: The development and evaluation process of Dr. Liver in this study can be referred in designing a user-centered system.

지식기반 영상개선을 위한 지문영상의 품질분석 (Fingerprint Image Quality Analysis for Knowledge-based Image Enhancement)

  • 윤은경;조성배
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제31권7호
    • /
    • pp.911-921
    • /
    • 2004
  • 지문영상으로부터 특징점을 정확하게 추출하는 것은 효과적인 지문인식 시스템의 구축에 매우 중요하다. 하지만 지문영상의 품질에 따라 특징점 추출의 정확도가 달라지기 때문에 지문인식 시스템에서의 영상 전처리 과정은 시스템의 성능에 크게 영향을 미친다. 본 논문에서는 지문영상으로부터 명암값의 평균 및 분산, 블록 방향성 차, 방향성 변화도, 융선과 골의 두께 비율 등의 5가지 특징을 추출하고 계층적 클러스터링 알고리즘으로 클러스터링하여 영상의 품질 특성을 분석한 후 습성(oily), 보통(neutral), 건성(dry)의 특성에 적합하게 영상을 개선하는 지식기반 전처리 방법을 제안한다. NIST DB 4와 인하대학교 데이타를 이용하여 실험한 결과, 클러스터링 기법이 영상의 특성을 제대로 구분함을 확인할 수 있었다. 또한 제안한 방법의 성능 평가를 위해 품질 지수와 블록 방향성 차이를 측정하여 일반적인 전처리 방법보다 지식기반 전처리 방법이 품질 지수와 블록 방향성 차이를 향상시킴을 확인할 수 있었다.

다중 구간 샘플링에 기반한 배경제거 알고리즘 (Background Subtraction Algorithm Based on Multiple Interval Pixel Sampling)

  • 이동은;최영규
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권1호
    • /
    • pp.27-34
    • /
    • 2013
  • 배경제거는 동영상의 내용을 자동으로 분석하기 위한 매우 중요한 기술의 하나로 움직이는 객체를 검출하고 추적하기 위한 핵심 기술이다. 본 논문에서는 배경 모델과 함께 배경 영상을 제공하는 새로운 샘플링 기반의 배경제거 알고리즘을 제안한다. 제안된 방법에서는 움직임이 빠른 객체와 느린 객체를 동시에 처리하기 위해 다중 구간 샘플링 기법을 이용하여 배경 모델을 생성한다. 이러한 다중 구간 배경 모델들로부터 최선의 배경 모델을 만들기 위해 "신뢰도"를 사용한 것이 본 논문의 특징이다. 배경 제거 분야에서 다양한 모델을 병합하여 하나의 모델을 만들기 위해 신뢰도를 정의하여 사용한 경우는 현재까지 보고되지 않았다. 실험을 통해 제안된 방법이 다양한 속도의 객체가 존재하고 시간에 따른 그림자의 이동과 같은 환경 변화가 있는 응용에서도 안정적인 결과를 나타내는 것을 알 수 있었다.