• 제목/요약/키워드: Confusion Matrix

검색결과 112건 처리시간 0.02초

하이퍼스펙트럴 영상의 분류 기법 비교 (A Comparison of Classification Techniques in Hyperspectral Image)

  • 가칠오;김대성;변영기;김용일
    • 한국측량학회:학술대회논문집
    • /
    • 한국측량학회 2004년도 추계학술발표회 논문집
    • /
    • pp.251-256
    • /
    • 2004
  • The image classification is one of the most important studies in the remote sensing. In general, the MLC(Maximum Likelihood Classification) classification that in consideration of distribution of training information is the most effective way but it produces a bad result when we apply it to actual hyperspectral image with the same classification technique. The purpose of this research is to reveal that which one is the most effective and suitable way of the classification algorithms iii the hyperspectral image classification. To confirm this matter, we apply the MLC classification algorithm which has distribution information and SAM(Spectral Angle Mapper), SFF(Spectral Feature Fitting) algorithm which use average information of the training class to both multispectral image and hyperspectral image. I conclude this result through quantitative and visual analysis using confusion matrix could confirm that SAM and SFF algorithm using of spectral pattern in vector domain is more effective way in the hyperspectral image classification than MLC which considered distribution.

  • PDF

프랙탈 분석을 통한 비용효과적인 기준자료추출 알고리즘에 관한 연구 (A Cost Effective Reference Data Sampling Algorithm Using Fractal Analysis)

  • 김창재;이병길;김용일
    • 대한원격탐사학회:학술대회논문집
    • /
    • 대한원격탐사학회 2000년도 춘계 학술대회 논문집 통권 3호 Proceedings of the 2000 KSRS Spring Meeting
    • /
    • pp.149-154
    • /
    • 2000
  • 분류기법을 통해 얻어진 원격탐사 자료는 사용되기 이전에 그 정확성에 관한 신뢰도 검증을 해야 한다. 분류 정확도를 평가하기 위해서는 오분류행렬(confusion matrix)을 사용하여 정확도 평가를 하게 되는데, 이때 오분류행렬을 구성하기 위해서는 기준자료(reference data)에 대한 표본추출이 이루어져야 한다. 기준자료의 표본을 추출하는 기법간의 비교 및 표본 크기를 줄이고자 하는 연구는 많이 이루어져 왔으난, 추출된 표본들간의 거리를 줄임으로써 정확도 평가 비용을 감소시키고자 하는 연구는 미미한 실정이다. 따라서, 본 연구에서는 프랙탈 분석을 통하여 기준자료의 표본을 추출하였으며, 이를 바탕으로 기존의 표본추출 기법과 정확도 차이 및 비용효과 측면을 비교 분석하였다. 연구 결과, 프랙탈 분석을 통하여 표본을 추출하는 기법은 그 정확도 추정에 있어 기존적 표본 추출 기법과 큰 차이가 보이지 않았으며, 추출된 화소들이 가까운 거리에 군집해 있어 비용효과측면에서 보다 유리함을 확인하였다.

  • PDF

한국어 자모 혼동행렬 기반 유사 외래어 표기 검출 기법 (Equivalent Writing of Loanwords Detection Method based on Korean Alphabet Confusion Matrix)

  • 권순호;권혁철
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 춘계학술발표대회
    • /
    • pp.433-436
    • /
    • 2010
  • 최근 한국어 문서에는 한국어뿐만 아니라 외래어 표기 등이 혼합되어 사용되고 있다. 외래어 표기는 한 단어에 대해 한 개만 존재하는 것이 아니라 여러 개의 다른 표기로 사용되고 있다. 이러한 표기상 불일치는 하나의 단어가 다른 개념으로 인식되어 정보검색 시스템의 성능 저하의 원인이 된다. 따라서 정보검색 시스템의 성능 향상을 위해 여러 외래어 표기를 같은 개념으로 인식하는 시스템이 필요하다. 본 논문에서는 한국어 자모 혼동행렬을 기반으로 한 유사 외래어 표기 검출 기법을 제안한다. 제안한 기법에 따라 유사 외래어 표기를 검출해줌으로써 정보검색 시스템의 성능을 향상할 수 있다.

체인 코드 트리밍과 가중 원형 정합을 이용한 인쇄체 숫자 인식 (Machine-printed Numeral Recognition using Weighted Template Matching with Chain Code Trimming)

  • 정민철
    • 지능정보연구
    • /
    • 제13권4호
    • /
    • pp.35-44
    • /
    • 2007
  • 본 논문에서는 인쇄체 숫자를 인식하기 위해 가중 원형 정합(weighted template matching) 방법을 제안한다. 원형 정합은 입력 영상 전체를 하나의 전역적인 특징으로 처리하는데 반해, 제안된 가중 원형 정합은 패턴의 특징이 나타나는 국부적인 영역에 해밍 거리(Hamming distance)의 가중치를 두어 패턴 특징을 강조하여 숫자 패턴의 인식률을 높인다. 또한 원형 정합은 영상을 이진화(binarization)할 때 발생되는 패턴의 윤곽선을 울퉁불퉁하게 만드는 랜덤 노이즈에 취약하다. 이러한 랜덤 노이즈를 제거하기 위해 본 논문에서는 체인 코드 트리밍(chain code trimming)방법을 제안한다. 체인 코드 트리밍은 패턴의 외부 윤곽선과 내부 윤곽선의 체인 코드 분석을 통해 특정 유형의 체인 코드를 제거, 교정함으로써 이루어진다. 실험에서는 기존의 원형 정합을 사용했을 때와 체인 코드 트리밍을 한 후 가중 원형 정합을 사용했을 때의 혼돈 행렬(confusion matrix)을 서로 비교한다. 실험 결과는 본 논문에서 제안한 방법에 의해 인쇄체 숫자의 인식률이 크게 향상된 것을 보인다.

  • PDF

GARP 모형과 기후변화 시나리오에 따른 잣나무의 지리적 분포 변화 (Shifts of Geographic Distribution of Pinus koraiensis Based on Climate Change Scenarios and GARP Model)

  • 천정화;이창배;유소민
    • 한국농림기상학회지
    • /
    • 제17권4호
    • /
    • pp.348-357
    • /
    • 2015
  • 본 연구는 그간 우리나라에서 경제적인 가치를 인정 받아온 수종인 잣나무를 대상으로 잣나무의 현존 분포를 파악하고, RCP (Representative Concentration Pathway) 8.5 기후변화 시나리오와 생태적 지위 모형에 기반하여 향후 잣나무의 분포 변화를 예측하기 위해 수행되었다. 이를 위해 5년간의 NFI 자료에서 조사지점별 잣나무의 풍부도 자료를 추출하여 사용하였으며, 수종에 영향을 미치는 환경요인변수를 선정하기 위해 생태적 지위 모형 가운데 하나인 GARP (Genetic Algorithm for Rule-set Production)를 이용하였다. 총 27개의 환경요인변수에 대해 각각 모형을 구동하고 컨퓨전 매트릭스(Confusion Matrix) 기반 산출 통계량인 AUC (Area Under Curve)가 0.6 이상인 변수들을 선발하여 최종 잠재분포모형을 작성하였다. 그 결과 작성된 모형은 비교적 높은 적합도를 나타냈는데 잣나무는 현재 표고의 범위가 300m에서 1,200m 사이인 지역 및 남부에서 북부에 이르기까지 넓게 자리 잡고 있는 것으로 나타났다. 작성된 모형에 RCP 8.5 기후변화 시나리오를 적용한 결과, 잣나무는 2020년대부터 잠재분포역이 큰 폭으로 축소되며, 2090년대에는 우리나라 대부분의 지역이 잣나무의 생육에 불리할 것으로 예측되었다. 본 연구를 통해 기후변화가 잣나무 분포에 미치는 영향을 파악하고, 잣나무와 기후변화와의 상관성에 대한 이해를 높임으로써 향후 지역별 조림수종 선정 및 경제수종 교체 등의 조림적 관점에서 도움이 될 수 있을 것으로 판단된다.

머신러닝 분류 알고리즘을 활용한 선박 접안속도 영향요소의 중요도 분석 (Analysis of Feature Importance of Ship's Berthing Velocity Using Classification Algorithms of Machine Learning)

  • 이형탁;이상원;조장원;조익순
    • 해양환경안전학회지
    • /
    • 제26권2호
    • /
    • pp.139-148
    • /
    • 2020
  • 선박이 접안할 때 발생하는 접안에너지에 가장 영향력이 큰 요소는 접안속도이며, 과도한 경우 사고로 이어질 수 있다. 접안속도의 결정에 영향을 미치는 요소는 다양하지만 기존 연구에서는 일반적으로 선박 크기에 제한하여 분석하였다. 따라서 본 연구에서는 다양한 선박 접안속도의 영향요소를 반영하여 분석하고 그에 따른 중요도를 도출하고자 한다. 분석에 활용한 데이터는 국내 한 탱커부두의 선박 접안속도를 실측한 것을 바탕으로 하였다. 수집된 데이터를 활용하여 머신러닝 분류 알고리즘인 의사결정나무(Decision Tree), 랜덤포레스트(Random Forest), 로지스틱회귀(Logistic Regression), 퍼셉트론(Perceptron)을 비교분석하였다. 알고리즘 평가 방법으로는 혼동 행렬에 따른 모델성능 평가지표를 사용하였다. 분석 결과, 가장 성능이 좋은 알고리즘으로는 퍼셉트론이 채택되었으며 그에 따른 접안속도 영향요인의 중요도는 선박 크기(DWT), 부두 위치(Jetty No.), 재화상태(State) 순으로 나타났다. 이에 따라 선박 접안 시, 선박의 크기를 비롯하여 부두 위치, 재화 상태 등 다양한 요인을 고려하여 접안속도를 설계하여야 한다.

일본인이 지각하는 한국어 자음의 구조 (The Structure of Korean Consonants as Perceived by the Japanese)

  • 배문정;김정오
    • 인지과학
    • /
    • 제19권2호
    • /
    • pp.163-175
    • /
    • 2008
  • 한국에 거주하는 일본인 12명을 대상으로 한국어 초성 자음에 대한 지각적 혼동을 조사하여 그들이 한국어 자음을 지각할 때 사용하는 심리적 차원과 특질들을 추출하였다. 개음절들은 비소음(no noise) 조건과 소음 조건에서 제시되고 참여자들은 그 정체를 파악하였다. 실험 결과로 자음들 간의 혼동 행렬(confusion matrix)을 구성하였고 이 행렬 자료로 가산 군집 분석, 개별차이 척도법 및 정보 전달율을 계산했다. 가산 군집 분석 결과, 비소음 조건에서 일본인들은 '다 타'를 가장 유사한 소리로 지각했으며, '가 카', '자 차 짜', '타 따', '파 빠', '사 싸' 순으로 지각적 군집을 형성하였다. 소음 조건에서는 '가 다 바', '마 바', '차 카 타 파' 등 10개의 군집이 추출되었는데, 이 군집들은 같은 청취 조건에서 '싸 짜', '다 자', '파 하' 등 발성 유형(공명, 이완, 기식, 긴장)이 같고 조음 방법이 다른 음소들을 유사한 소리로 지각한 한국인의 군집들과 큰 차이를 보였다. 개별차이 척도법을 적용한 결과, 소음 조건에서 공명음을 포함한 이완음과 나머지 음소를 구분하는 차원(이완성 차원), 기식성의 정도와 관련된 차원(기식성 차원) 및 조음 위치(설정음과 주변음)와 관련된 차원(설정성 차원)을 찾았다. 한국인이 보인 기식성과 긴장성 차원은 이원적인 값을 갖고 있었으나 일본인이 보인 차원은 연속적인 값을 가지는 것으로 드러났다. 정보 전달율을 분석한 결과, 일본인은 한국인에 비해 기식성과 긴장성의 후두 자질은 잘 지각하지 못하지만 순음성과 설정성의 조음 위치 자질은 더 잘 지각하였다. 본 연구의 결과들은 각 언어의 음소 범주를 구성하는 기저 표상의 구조적 차이로 다루는 접근의 중요성을 시사한다.

  • PDF

Sentinel-1 A/B 위성 SAR 자료와 딥러닝 모델을 이용한 여름철 북극해 해빙 분류 연구 (A Study on Classifying Sea Ice of the Summer Arctic Ocean Using Sentinel-1 A/B SAR Data and Deep Learning Models)

  • 전현균;김준우;수레시 크리쉬난;김덕진
    • 대한원격탐사학회지
    • /
    • 제35권6_1호
    • /
    • pp.999-1009
    • /
    • 2019
  • 북극항로의 개척 가능성과 정확한 기후 예측 모델의 필요성에 의해 북극해 고해상도 해빙 지도의 중요성이 증가하고 있다. 그러나 기존의 북극 해빙 지도는 제작에 사용된 위성 영상 취득 센서의 특성에 따른 데이터의 취득과 공간해상도 등에서 그 활용도가 제한된다. 본 연구에서는 Sentinel-1 A/B SAR 위성자료로부터 고해상도 해빙 지도를 생성하기 위한 딥러닝 기반의 해빙 분류 알고리즘을 연구하였다. 북극해 Ice Chart를 기반으로 전문가 판독에 의해 Open Water, First Year Ice, Multi Year Ice의 세 클래스로 구성된 훈련자료를 구축하였으며, Convolutional Neural Network 기반의 두 가지 딥러닝 모델(Simple CNN, Resnet50)과 입사각 및 thermal noise가 보정된 HV 밴드를 포함하는 다섯 가지 입력 밴드 조합을 이용하여 총 10가지 케이스의 해빙 분류를 실시하였다. 이 케이스들에 대하여 Ground Truth Point를 사용하여 정확도를 비교하고, 가장 높은 정확도가 나온 케이스에 대해 confusion matrix 및 Cohen의 kappa 분석을 실시하였다. 또한 전통적으로 분류를 위해 많이 활용되어 온 Maximum Likelihood Classifier 기법을 이용한 분류결과에 대해서도 같은 비교를 하였다. 그 결과 Convolution 층 2개, Max Pooling 층 2개를 가진 구조의 Convolutional Neural Network에 [HV, 입사각] 밴드를 넣은 딥러닝 알고리즘의 분류 결과가 96.66%의 가장 높은 분류 정확도를 보였으며, Cohen의 kappa 계수는 0.9499로 나타나 딥러닝에 의한 해빙 분류는 비교적 높은 분류 결과를 보였다. 또한 모든 딥러닝 케이스는 Maximum Likelihood Classifier 기법에 비해 높은 분류 정확도를 보였다.

데이터 탐색을 활용한 딥러닝 기반 제천 지역 산사태 취약성 분석 (Assessment of Landslide Susceptibility in Jecheon Using Deep Learning Based on Exploratory Data Analysis)

  • 안상아;이정현;박혁진
    • 지질공학
    • /
    • 제33권4호
    • /
    • pp.673-687
    • /
    • 2023
  • 데이터 탐색은 수집한 데이터를 다양한 각도에서 관찰 및 이해하는 과정으로 데이터 구조 및 특성 분석을 통해 데이터의 분포와 상관관계를 파악하는 과정이다. 일반적으로 산사태는 다양한 인자들에 의해 유발되고 발생 지역에 따라 유발 인자들이 미치는 영향이 상이하기 때문에 산사태 취약성 분석 이전에 데이터 탐색을 통해 유발 인자 사이의 상관관계를 파악하고 특징적인 유발 인자를 선별한다면 효과적인 분석을 수행할 수 있다. 따라서 본 연구는 데이터 탐색이 예측 모델의 성능에 미치는 결과를 확인하기 위해 두 단계에 걸친 데이터 탐색을 수행하여 인자를 선별하고, 선별된 유발 인자들 사이의 조합과 23개의 전체 유발 인자 조합을 활용하여 딥러닝 기반의 산사태 취약성 분석을 진행하였다. 데이터 탐색 과정에서는 Pearson 상관계수 heat map과 random forest의 인자 중요도 histogram을 활용하였으며, 딥러닝 기반 산사태 취약성 분석 결과의 정확도는 분석을 통해 획득한 산사태 취약 지수 값을 이용해 제작한 산사태 취약성 지도를 confusion matrix 기반의 정확도 검증 방법을 통해 분석하였다. 분석 결과, 전체 23개의 인자를 사용한 산사태 취약성 해석 결과는 55.90%의 낮은 정확도를 보였지만 한 단계의 탐색을 거쳐 선별한 13개 인자를 활용한 취약성 해석 결과는 81.25%의 분석 정확도를 보였고, 두 단계 데이터 탐색을 모두 수행하여 선별된 9개의 유발 인자를 활용한 산사태 취약성 분석 결과는 92.80%로 가장 높은 정확도를 보였다. 따라서 데이터 탐색을 통해 특징적인 유발 인자를 선별하고 분석에 활용하는 것이 산사태 취약성 분석에서 더 좋은 분석 성능을 기대할 수 있음을 확인하였다.

기계학습 알고리즘을 이용한 소프트웨어 취약 여부 예측 시스템 (Software Vulnerability Prediction System Using Machine Learning Algorithm)

  • 최민준;김주환;윤주범
    • 정보보호학회논문지
    • /
    • 제28권3호
    • /
    • pp.635-642
    • /
    • 2018
  • 4차 산업혁명 시대에 우리는 소프트웨어 홍수 속에 살고 있다. 그러나, 소프트웨어의 증가는 필연적으로 소프트웨어 취약점 증가로 이어지고 있어 소프트웨어 취약점을 탐지 및 제거하는 작업이 중요하게 되었다. 현재까지 소프트웨어 취약 여부를 예측하는 연구가 진행되었지만, 탐지 시간이 오래 걸리거나, 예측 정확도가 높지 않았다. 따라서 본 논문에서는 기계학습 알고리즘을 이용하여 소프트웨어의 취약 여부를 효율적으로 예측하는 방법을 설명하며, 다양한 기계학습 알고리즘을 이용한 실험 결과를 비교한다. 실험 결과 k-Nearest Neighbors 예측 모델이 가장 높은 예측률을 보였다.