• 제목/요약/키워드: K-Nearest Neighbor 알고리즘

검색결과 204건 처리시간 0.026초

영한 기계 번역에서 미가공 텍스트 데이터를 이용한 대역어 선택 중의성 해소 (Target Word Selection Disambiguation using Untagged Text Data in English-Korean Machine Translation)

  • 김유섭;장정호
    • 정보처리학회논문지B
    • /
    • 제11B권6호
    • /
    • pp.749-758
    • /
    • 2004
  • 본 논문에서는 미가공 말뭉치 데이터를 활용하여 영한 기계번역 시스템의 대역어 선택 시 발생하는 중의성을 해소하는 방법을 제안한다. 이를 위하여 은닉 의미 분석(Latent Semantic Analysis : LSA)과 확률적 은닉 의미 분석(Probabilistic LSA : PLSA)을 적용한다. 이 두 기법은 텍스트 문단과 같은 문맥 정보가 주어졌을 때, 이 문맥이 내포하고 있는 복잡한 의미 구조를 표현할 수 있다 본 논문에서는 이들을 사용하여 언어적인 의미 지식(Semantic Knowledge)을 구축하였으며 이 지식은 결국 영한 기계번역에서의 대역어 선택 시 발생하는 중의성을 해소하기 위하여 단어간 의미 유사도를 추정하는데 사용된다. 또한 대역어 선택을 위해서는 미리 사전에 저장된 문법 관계를 활용하여야 한다. 본 논문에서는 이러한 대역어 선택 시 발생하는 데이터 희소성 문제를 해소하기 위하여 k-최근점 학습 알고리즘을 사용한다. 그리고 위의 두 모델을 활용하여 k-최근점 학습에서 필요한 예제 간 거리를 추정하였다. 실험에서는, 두 기법에서의 은닉 의미 공간을 구성하기 위하여 TREC 데이터(AP news)론 활용하였고, 대역어 선택의 정확도를 평가하기 위하여 Wall Street Journal 말뭉치를 사용하였다. 그리고 은닉 의미 분석을 통하여 대역어 선택의 정확성이 디폴트 의미 선택과 비교하여 약 10% 향상되었으며 PLSA가 LSA보다 근소하게 더 좋은 성능을 보였다. 또한 은닉 공간에서의 축소된 벡터의 차원수와 k-최근점 학습에서의 k값이 대역어 선택의 정확도에 미치는 영향을 대역어 선택 정확도와의 상관관계를 계산함으로써 검증하였다.젝트의 성격에 맞도록 필요한 조정만을 통하여 품질보증 프로세스를 확립할 수 있다. 개발 된 패키지의 효율적인 활용이 내조직의 소프트웨어 품질보증 구축에 투입되는 공수 및 어려움을 줄일 것으로 기대된다.도가 증가할 때 구기자 열수 추출 농축액은 $1.6182{\sim}2.0543$, 혼합구기자 열수 추출 농축액은 $1.7057{\sim}2.1462{\times}10^7\;J/kg{\cdot}mol$로 증가하였다. 이와 같이 구기자 열수 추출 농축액과 혼합구기자 열수 추출 농축액의 리올리지적 특성에 큰 차이를 나타내지는 않았다. security simultaneously.% 첨가시 pH 5.0, 7.0 및 8.0에서 각각 대조구의 57, 413 및 315% 증진되었다. 거품의 열안정성은 15분 whipping시, pH 4.0(대조구, 30.2%) 및 5.0(대조구, 23.7%)에서 각각 $0{\sim}38.0$$0{\sim}57.0%$이었고 pH 7.0(대조구, 39.6%) 및 8.0(대조구, 43.6%)에서 각각 $0{\sim}59.4$$36.6{\sim}58.4%$이었으며 sodium alginate 첨가시가 가장 양호하였다. 전체적으로 보아 거품안정성이 높은 것은 열안정성도 높은 경향이며, 표면장력이 낮으면 거품형성능이 높아지고, 비점도가 높으면 거품안정성 및 열안정성이 높아지는 경향이 있었다.protocol.eractions between application agents that are developed using different

이질성 학습을 통한 문서 분류의 정확성 향상 기법 (Improving the Accuracy of Document Classification by Learning Heterogeneity)

  • 윌리엄;현윤진;김남규
    • 지능정보연구
    • /
    • 제24권3호
    • /
    • pp.21-44
    • /
    • 2018
  • 최근 인터넷 기술의 발전과 함께 스마트 기기가 대중화됨에 따라 방대한 양의 텍스트 데이터가 쏟아져 나오고 있으며, 이러한 텍스트 데이터는 뉴스, 블로그, 소셜미디어 등 다양한 미디어 매체를 통해 생산 및 유통되고 있다. 이처럼 손쉽게 방대한 양의 정보를 획득할 수 있게 됨에 따라 보다 효율적으로 문서를 관리하기 위한 문서 분류의 필요성이 급증하였다. 문서 분류는 텍스트 문서를 둘 이상의 카테고리 혹은 클래스로 정의하여 분류하는 것을 의미하며, K-근접 이웃(K-Nearest Neighbor), 나이브 베이지안 알고리즘(Naïve Bayes Algorithm), SVM(Support Vector Machine), 의사결정나무(Decision Tree), 인공신경망(Artificial Neural Network) 등 다양한 기술들이 문서 분류에 활용되고 있다. 특히, 문서 분류는 문맥에 사용된 단어 및 문서 분류를 위해 추출된 형질에 따라 분류 모델의 성능이 달라질 뿐만 아니라, 문서 분류기 구축에 사용된 학습데이터의 질에 따라 문서 분류의 성능이 크게 좌우된다. 하지만 현실세계에서 사용되는 대부분의 데이터는 많은 노이즈(Noise)를 포함하고 있으며, 이러한 데이터의 학습을 통해 생성된 분류 모형은 노이즈의 정도에 따라 정확도 측면의 성능이 영향을 받게 된다. 이에 본 연구에서는 노이즈를 인위적으로 삽입하여 문서 분류기의 견고성을 강화하고 이를 통해 분류의 정확도를 향상시킬 수 있는 방안을 제안하고자 한다. 즉, 분류의 대상이 되는 원 문서와 전혀 다른 특징을 갖는 이질적인 데이터소스로부터 추출한 형질을 원 문서에 일종의 노이즈의 형태로 삽입하여 이질성 학습을 수행하고, 도출된 분류 규칙 중 문서 분류기의 정확도 향상에 기여하는 분류 규칙만을 추출하여 적용하는 방식의 규칙 선별 기반의 앙상블 준지도학습을 제안함으로써 문서 분류의 성능을 향상시키고자 한다.

서울시 수리시설 설계기준의 기후변화 영향 고려를 위한 미래강우시나리오 산정 (Calculation of future rainfall scenarios to consider the impact of climate change in Seoul City's hydraulic facility design standards)

  • 윤선권;이태삼;성기영;안유진
    • 한국수자원학회논문집
    • /
    • 제54권6호
    • /
    • pp.419-431
    • /
    • 2021
  • 최근 서울시의 강수특성이 변하고 있으며, 폭우의 발생빈도와 강도가 점차 증가 추세임이 확인되고 있다. 또한, 대부분의 지역이 도시화가 이루어져 불투수 비율이 높고 인구와 재산이 밀집되어 있어 폭우 발생 시 직접유출에 의한 홍수피해가 가중되고 있는 실정이다. 서울시는 이러한 홍수피해에 적극적으로 대응하기 위하여 침수취약지역 해소사업을 추친 중이며, 구조물적·비구조물적 다양한 대응책을 제시하고 있다. 본 연구에서는 서울시의 미래 기후변화영향을 고려한 수공구조물의 방재성능 목표 설정을 위하여 29개의 GCM의 강수량자료를 활용하여 자료 기간을 단기(2006-2040, P1), 중기(2041-2070, P2), 및 장기(2071-2100, P3)로 구분하여 RCP4.5와 RCP8.5 시나리오에 대한 시공간적 상세화를 실시하였다. 공간상세화는 기상청에서 관리하는 서울관측소의 강우량을 기준으로 GCM의 일자료를 Quantile Mapping을 통하여 처리하였으며, 시간 상세화는 K-Nearest Neighbor Resampling 방법과 유전자알고리즘 방법을 이용한 비매개변수 시간상세화 기법을 통하여 일자료를 시간자료로 상세화하였다. 시간상세화를 통해 각 GCM 시나리오별로 100개의 상세화 시나리오가 산출되어 총 2,900개의 상세화 시나리오를 바탕으로 IDF 곡선을 산출하고 이를 평균하여 미래 극치 강우량의 변화를 산출하였다. 산정결과, 재현기간 100년 지속시간 1시간의 확률강우량은 RCP4.5 시나리오에서 8~16%의 증가 특성을 보이고 있음을 확인하였으며 RCP8.5 시나리오의 경우 7~26%의 증가가 이루어짐을 확인하였다. 본 연구결과는 서울시의 미래 기후변화를 대비한 설계강우량 산정 및 수준목표별 수방정책을 수립하는데 활용이 가능할 것으로 판단된다.

머신러닝 기법을 이용한 유량 자료 생산 방법 (Estimation of River Flow Data Using Machine Learning)

  • 강노을;이지훈;이정훈;이충대
    • 한국수자원학회:학술대회논문집
    • /
    • 한국수자원학회 2020년도 학술발표회
    • /
    • pp.261-261
    • /
    • 2020
  • 물관리의 기본이 되는 연속적인 유량 자료 확보를 위해서는 정확도 높은 수위-유량 관계 곡선식 개발이 필수적이다. 수위-유량 관계곡선식은 모든 수문시설 설계의 기초가 되며 홍수, 가뭄 등 물재해 대응을 위해서도 중요한 의미를 가지고 있다. 그러나 일반적으로 유량 측정은 많은 비용과 시간이 들고, 식생성장, 단면변화 등의 통제특성(control)이 변함에 따라 구간분리, 기간분리와 같은 비선형적인 양상이 나타나 자료 해석에 어려움이 존재한다. 특히, 국내 하천의 경우 자연적 및 인위적인 환경 변화가 다양하여 지점 및 기간에 따라 세밀한 분석이 요구된다. 머신러닝(Machine Learning)이란 데이터를 통해 컴퓨터가 스스로 학습하여 모델을 구축하고 성능을 향상시키는 일련의 과정을 뜻한다. 기존의 수위-유량 관계곡선식은 개발자의 판단에 의해 데이터의 종류와 기간 등을 설정하여 회귀식의 파라미터를 산출한다면, 머신러닝은 유효한 전체 데이터를 이용해 스스로 학습하여 자료 간 상관성을 찾아내 모델을 구축하고 성능을 지속적으로 향상 시킬 수 있다. 머신러닝은 충분한 수문자료가 확보되었다는 전제 하에 복잡하고 가변적인 수자원 환경을 반영하여 유량 추정의 정확도를 지속적으로 향상시킬 수 있다는 이점을 가지고 있다. 본 연구는 머신러닝의 대표적인 알고리즘들을 활용하여 유량을 추정하는 모델을 구축하고 성능을 비교·분석하였다. 대상지역은 안정적인 수량을 확보하고 있는 한강수계의 거운교 지점이며, 사용자료는 2010~2018년의 시간, 수위, 유량, 수면폭 등 이다. 프로그램은 파이썬을 기반으로 한 머신러닝 라이브러리인 사이킷런(sklearn)을 사용하였고 알고리즘은 랜덤포레스트 회귀, 의사결정트리, KNN(K-Nearest Neighbor), rgboost을 적용하였다. 학습(train) 데이터는 입력자료 종류별로 조합하여 6개의 세트로 구분하여 모델을 구축하였고, 이를 적용해 검증(test) 데이터를 RMSE(Roog Mean Square Error)로 평가하였다. 그 결과 모델 및 입력 자료의 조합에 따라 3.67~171.46로 다소 넓은 범위의 값이 도출되었다. 그 중 가장 우수한 유형은 수위, 연도, 수면폭 3개의 입력자료를 조합하여 랜덤포레스트 회귀 모델에 적용한 경우이다. 비교를 위해 동일한 검증 데이터를 한국수문조사연보(2018년) 내거운교 지점의 수위별 수위-유량 곡선식을 이용해 유량을 추정한 결과 RMSE가 3.76이 산출되어, 머신러닝이 세분화된 수위-유량 곡선식과 비슷한 수준까지 성능을 내는 것으로 확인되었다. 본 연구는 양질의 유량자료 생산을 위해 기 구축된 수문자료를 기반으로 머신러닝 기법의 적용 가능성을 검토한 기초 연구로써, 국내 효율적인 수문자료 측정 및 수위-유량 곡선 산출에 도움이 될 수 있을 것으로 판단된다. 향후 수자원 환경 및 통제특성에 영향을 미치는 다양한 영향변수를 파악하기 위해 기상자료, 취수량 등의 입력 자료를 적용할 필요가 있으며, 머신러닝 내 비지도학습인 딥러닝과 같은 보다 정교한 모델에 대한 추가적인 연구도 수행되어야 할 것이다.

  • PDF

부도예측을 위한 KNN 앙상블 모형의 동시 최적화 (Investigating Dynamic Mutation Process of Issues Using Unstructured Text Analysis)

  • 민성환
    • 지능정보연구
    • /
    • 제22권1호
    • /
    • pp.139-157
    • /
    • 2016
  • 앙상블 분류기란 개별 분류기보다 더 좋은 성과를 내기 위해 다수의 분류기를 결합하는 것을 의미한다. 이와 같은 앙상블 분류기는 단일 분류기의 일반화 성능을 향상시키는데 매우 유용한 것으로 알려져 있다. 랜덤 서브스페이스 앙상블 기법은 각각의 기저 분류기들을 위해 원 입력 변수 집합으로부터 랜덤하게 입력 변수 집합을 선택하며 이를 통해 기저 분류기들을 다양화 시키는 기법이다. k-최근접 이웃(KNN: k nearest neighbor)을 기저 분류기로 하는 랜덤 서브스페이스 앙상블 모형의 성과는 단일 모형의 성과를 개선시키는 데 효과적인 것으로 알려져 있으며, 이와 같은 랜덤 서브스페이스 앙상블의 성과는 각 기저 분류기를 위해 랜덤하게 선택된 입력 변수 집합과 KNN의 파라미터 k의 값이 중요한 영향을 미친다. 하지만, 단일 모형을 위한 k의 최적 선택이나 단일 모형을 위한 입력 변수 집합의 최적 선택에 관한 연구는 있었지만 KNN을 기저 분류기로 하는 앙상블 모형에서 이들의 최적화와 관련된 연구는 없는 것이 현실이다. 이에 본 연구에서는 KNN을 기저 분류기로 하는 앙상블 모형의 성과 개선을 위해 각 기저 분류기들의 k 파라미터 값과 입력 변수 집합을 동시에 최적화하는 새로운 형태의 앙상블 모형을 제안하였다. 본 논문에서 제안한 방법은 앙상블을 구성하게 될 각각의 KNN 기저 분류기들에 대해 최적의 앙상블 성과가 나올 수 있도록 각각의 기저 분류기가 사용할 파라미터 k의 값과 입력 변수를 유전자 알고리즘을 이용해 탐색하였다. 제안한 모형의 검증을 위해 국내 기업의 부도 예측 관련 데이터를 가지고 다양한 실험을 하였으며, 실험 결과 제안한 모형이 기존의 앙상블 모형보다 기저 분류기의 다양화와 예측 성과 개선에 효과적임을 알 수 있었다.

부채살 SPECT 데이터를 위한 정칙화된 기댓값 최대화 재구성기법 개발 (Development of Regularized Expectation Maximization Algorithms for Fan-Beam SPECT Data)

  • 김수미;이재성;이수진;김경민;이동수
    • 대한핵의학회지
    • /
    • 제39권6호
    • /
    • pp.464-472
    • /
    • 2005
  • 목적: 부채살 단일광자단층촬영(SPECT)은 공간분해능과 민감도를 개선하는 것으로 알려져 있다. 보다 정확한 영상을 얻고 인체에 대한 SPECT의 영상화 과정을 정확하게 묘사하기 위하여 평행 데이터로 재배열하는 과정 없이 직접 부채살 데이터를 이용하여 재구성하는 알고리즘이 필요하다. 본 연구는 다양한 부채살 재구성 알고리즘을 구현하였고 각 방법의 성능을 비교하였다. 대상 및 방법: 선추적법을 적용하여 부채살 투사기와 이로부터 얻은 데이터를 직접 재구성할 수 있는 FBP, EM, OS-EM과 MAP-EM OSL 알고리즘을 구현하였다. OSL 알고리즘의 경우에는 membrane과 thin plate prior를 사용하였다. 직접 부채살 데이터를 재구성하는 방법의 성능을 평가하기 위해 양방향 최근접 이웃, 양방향 1차와 양방향 3차 보간법을 사용하여 재배열된 평행 데이터를 얻었고 이 데이터를 기존의 평행 데이터에 대한 EM 알고리즘을 사용하여 재구성하였다. Hoffman 두뇌와 Shepp/Logan 팬텀으로부터 얻은 잡음 없는 데이터와 잡음 있는 데이터는 각 방법으로 재구성하였으며 퍼센트 오차를 계산하여 각 재구성된 영상을 비교하였다. 결과: Thin-plate 사전 분포함수를 사용한 OSL 방법이 가장 낮은 오차를 가지며 잡음으로 인한 결과 영상의 불안정성을 효과적으로 제어함을 확인할 수 있었다. 부채살 데이터를 평행 데이터로 재배열시 양방향 1차 보간법이 정확성과 계산 시간 측면에서 가장 효율적인 방법임을 확인하였다. 재배열된 평행 데이터의 EM결과에 비해 직접 부채살 데이터를 재구성하여 얻은 결과영상이 더 정확하게 재구성되었다. 결론: 본 연구에서는 평행 데이터로 재배열한 경우에 비하여 보다 정확한 영상을 재구성하는 직접 부채살 재구성 알고리즘을 구현하였으며 이는 정량적으로 월등히 개선된 결과를 제공함을 확인하였다.

밀리미터파 대역 차량용 레이더를 위한 순서통계 기법을 이용한 다중표적의 데이터 연관 필터 (Multi-target Data Association Filter Based on Order Statistics for Millimeter-wave Automotive Radar)

  • 이문식;김용훈
    • 대한전자공학회논문지SP
    • /
    • 제37권5호
    • /
    • pp.94-104
    • /
    • 2000
  • 차량 충돌 경보용 레이더 시스템의 개발에 있어 표적 추적의 정확도와 신뢰도는 매우 중요한 요소이다. 여러 표적을 동시에 추적할 때 중요한 것은 표적과 측정치와의 데이터 연관(data association) 이며, 부적절한 측정치가 어느 표적과 연관되면 그 표적은 트랙을 벗어나 추적능력을 잃어버릴 수 있고 심지어 다른 표적의 추적에도 영향을 줄 수 있다 지금까지 발표된 대부분의 데이터 연관 필터들은 근접하여 이동하는 표적들의 경우 이와 같은 문제점을 보여왔다 따라서, 현재 개발되고 있는 많은 알고리즘들은 이러한 데이터 연 관 문제의 해결에 초점을 맞추고 있다 본 논문에서는 순서통계(order statistics)를 이용한 새로운 다중 표적의 데이터 연관 방법에 대하여 서술하고자 한다 OSPDA와 OSJPDA로 불리는 제안된 방법은 각각 PDA 필터 또는 JPDA 필터에서 계산된 연관 확률을 이용하며 이 연관 확률을 결정 논리(dicision logic)에 의한 가중치로 함수화 하여 표적과 측정치 사이에 최적 혹은 최적 근처의(near optimal) 데이터 연관이 가능하도록 한 것이다 시뮬레이션 결과를 통해, 제안한 방법은 기존의 NN 필터, PDA 필터, 그리고 JPDA 필터의 성능과 비교 분석되었으며, 그 결과 제안한 OSPDA, OSJPDA 필터는 PDA, JPDA 필터보다 추적 정확도에 대해 각각 약 18%, 19% 이상으로 성능이 향상됨을 확인하였다 제안한 방법은 CAN을 통해 차량 엔진 등의 ECU와 통신하도록 개발된 DSP 보드를 이용하여 구현되었다

  • PDF

지상부 바이오매스 탄소저장량의 추정에 위치 오차가 미치는 영향 (Effect of Location Error on the Estimation of Aboveground Biomass Carbon Stock)

  • 김상필;허준;정재훈;유수홍;김경민
    • 한국측량학회지
    • /
    • 제29권2호
    • /
    • pp.133-139
    • /
    • 2011
  • 산림의 바이오매스 탄소저장량을 추정하는 것은 산림의 공익적인 가치를 평가하기 위해 선행되어야 하는 연구이다. 하지만 기존의 바이오매스 탄소저장량 추정에 관한 연구는 대부분 결정론적 모델이 사용되어 오차에 의한 영향을 알 수 없다는 한계를 가진다. 본 연구에서는 단양군의 지상부 바이오매스 탄소저장량 추정의 경우를 대상으로 몬테카를로 시뮬레이션을 통해 위치 오차에 의한 추정오차의 영향을 분석하고자 하였다. 기본적인 추정 방법으로는 kNN 알고리즘이 사용되었으며, 표본점의 위치에 우연오차 및 계통오차를 추가하여 RMSE의 변화를 통해 추정오차에 미치는 영향을 분석하였다. 분석결과 일반적인 위성영상에서 발생 할 수 있는 0.5~1 영상소의 위치오차에 의해 추정의 평균 RMSE가 24.8 tonC/ha에서 26 tonC/ha로 증가하는 것으로 확인되었으며, 추정 오차의 범위는 23.8 tonC/ha에서 28.1 tonC/ha로 나타났다. 하지만, 대상지역의 특성에 의해 0.8 영상소 이상의 우연오차에 대해서는 더 이상의 RMSE 증가가 없이 수렴하는 것으로 확인되었다. 방향을 고려한 계통오차에 대한분석의 경우 실험자료에서 특정한 경향은 발견되지 않았다.

사례기반추론의 유사 임계치 및 커버리지 최적화 (Optimizing Similarity Threshold and Coverage of CBR)

  • 안현철
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제2권8호
    • /
    • pp.535-542
    • /
    • 2013
  • 사례기반추론(CBR)은 많은 장점으로 인해 지금까지 의료진단, 생산계획, 고객분류 등 다양한 분야의 의사결정 지원에 적용되어 왔다. 그러나, 효과적인 CBR 시스템을 설계, 구축하기 위해서는 연구자가 직관적으로 설정해야 할 많은 설계요소들이 존재한다. 본 연구에서는 이러한 CBR의 여러 설계요소들 중 사례 검색 단계에서 결합할 이웃 사례들을 보다 효과적으로 선정할 수 있는 새로운 모형을 제시한다. 기존 연구에서는 결합할 이웃 사례를 선정하는 방법으로 사전에 정해진 이웃사례의 수(k-NN의 k)를 적용하든가, 혹은 최대 유사도의 상대적 비율을 임계치로 사용하는 방식을 적용해 왔다. 하지만, 본 연구에서는 결합할 유사사례를 선택하는 새로운 기준으로 0에서 1사이의 값을 갖는 절대적 유사 임계치를 사용할 것을 제안한다. 이 경우, 임계치 값이 과도하게 작아지게 되면, 예측결과의 생성이 잘 이루어지지 않을 수 있는 문제가 발생할 수 있다. 이에, 전체 학습사례들 중에서 예측결과가 생성된 사례의 비중을 커버리지(coverage)로 정의하고, 이를 유사 임계치 최적화 시 제약조건으로 설정함으로서, 사용자가 원하는 수준의 커버리지는 유지한 상태에서 가장 효과적인 유사 사례를 찾아 추론할 수 있도록 모형을 설계하였다. 제안 모형의 유용성을 검증하기 위해, 본 연구에서는 이 모형을 실존하는 국내 한 온라인 쇼핑몰의 표적 마케팅 사례에 적용하였다. 그 결과, 제안 모형이 CBR의 예측 성과를 유의미하게 개선시킬 수 있음을 확인할 수 있었다.

DBSCAN을 이용한 등부표 위치 데이터 Clustering 연구(I) (A Study on Data Clustering of Light Buoy Using DBSCAN(I))

  • 최광영;김소라;박상원;송재욱
    • 한국항해항만학회지
    • /
    • 제47권4호
    • /
    • pp.231-238
    • /
    • 2023
  • 등부표는 조류, 바람 등 외력에 영향을 받아 위치가 항상 유동적이고 위치는 항로표지용 AIS 또는 RTU를 통해 확인할 수 있다. 위치 확인이 가능한 등부표의 최근 5년간(2017~2021년) 위치 데이터 분석 결과 위치 오류 데이터는 평균 15.4%로 나타났으며 항해 안전사고예방 및 관리를 위해서는 위치 오류 데이터를 검출하고 정제된 위치 데이터 획득이 필요하다. 본 연구에서는 항로표지용 AIS 또는 RTU를 통해 획득한 위치 데이터를 DBSCAN Clustering하여 위치 오류 데이터를 검출하고 정제된 위치 데이터를 획득하고자 한다. 이를 위하여 위치 오류가 가장 많은 서해 해역 중 RTU가 설치된 군산항 1호 등부표의 21년도 위치 데이터를 Python library를 사용하여 DBSCAN Clustering 하였다. DBSCAN Clustering에 필요한 minPts는 2차원 데이터에 일반적으로 사용하는 값을 적용하였고 epsilon은 k-NN(최근접 이웃)알고리즘을 사용하여 값을 산출 및 적용하였다. DBSCAN Clustering 결과 minPts와 epsilon을 만족하지 못하는 위치 오류 데이터를 검출하였고 정제된 위치 데이터를 획득할 수 있었다. 본 연구는 항로표지용 AIS 또는 RTU가 설치된 등부표의 신뢰성 있는 위치 데이터를 획득할 수 있는 기초 자료로 활용할 수 있으며 항해 안전사고 예방에도 큰 도움이 될 것으로 판단된다.