• 제목/요약/키워드: 데이터 정제

검색결과 466건 처리시간 0.033초

DBSCAN을 이용한 등부표 위치 데이터 Clustering 연구(I) (A Study on Data Clustering of Light Buoy Using DBSCAN(I))

  • 최광영;김소라;박상원;송재욱
    • 한국항해항만학회지
    • /
    • 제47권4호
    • /
    • pp.231-238
    • /
    • 2023
  • 등부표는 조류, 바람 등 외력에 영향을 받아 위치가 항상 유동적이고 위치는 항로표지용 AIS 또는 RTU를 통해 확인할 수 있다. 위치 확인이 가능한 등부표의 최근 5년간(2017~2021년) 위치 데이터 분석 결과 위치 오류 데이터는 평균 15.4%로 나타났으며 항해 안전사고예방 및 관리를 위해서는 위치 오류 데이터를 검출하고 정제된 위치 데이터 획득이 필요하다. 본 연구에서는 항로표지용 AIS 또는 RTU를 통해 획득한 위치 데이터를 DBSCAN Clustering하여 위치 오류 데이터를 검출하고 정제된 위치 데이터를 획득하고자 한다. 이를 위하여 위치 오류가 가장 많은 서해 해역 중 RTU가 설치된 군산항 1호 등부표의 21년도 위치 데이터를 Python library를 사용하여 DBSCAN Clustering 하였다. DBSCAN Clustering에 필요한 minPts는 2차원 데이터에 일반적으로 사용하는 값을 적용하였고 epsilon은 k-NN(최근접 이웃)알고리즘을 사용하여 값을 산출 및 적용하였다. DBSCAN Clustering 결과 minPts와 epsilon을 만족하지 못하는 위치 오류 데이터를 검출하였고 정제된 위치 데이터를 획득할 수 있었다. 본 연구는 항로표지용 AIS 또는 RTU가 설치된 등부표의 신뢰성 있는 위치 데이터를 획득할 수 있는 기초 자료로 활용할 수 있으며 항해 안전사고 예방에도 큰 도움이 될 것으로 판단된다.

건강데이터 온톨로지를 위한 반자동 학습 모델 (Semi-Automatic Learning Model for Health Data Ontology)

  • 김광성;황두성
    • 한국IT서비스학회:학술대회논문집
    • /
    • 한국IT서비스학회 2009년도 춘계학술대회
    • /
    • pp.388-392
    • /
    • 2009
  • 웹 관련 기술의 발전과 더불어 정보시스템의 개발에서 기계가 자동 처리할 수 있는 데이터의 기술 방법으로 온톨로지의 사용이 보편화되고 있다. 온톨로지는 특정 영역의 개념과 그들간의 관계를 단순 명료하게 기술한다. 지식 발견을 위한 도메인 온톨로지 구축은 도메인의 이해, 데이터의 이해, 테스크의 이해, 온톨로지 학습, 온톨로지 평가, 정제 등 다단계를 통해 완성되나 전문성이 요구된다. 본 논문에서는 학습 기반 도메인 온톨로지 구축방법을 제안하고 건강데이터를 위한 온톨로지 구축에서 응용하였다. 제안된 학습 기반 온톨로지 구축 방법은 건강데이터의 세부 영역별 개념과 관계를 밝히는데 유용하였다.

  • PDF

항로표지 데이터 품질지수 산출에 관한 연구

  • 정제한;한윤석;이예경;다이리;탕멍위엔;장준혁;신상문
    • 한국항해항만학회:학술대회논문집
    • /
    • 한국항해항만학회 2022년도 춘계학술대회
    • /
    • pp.100-102
    • /
    • 2022
  • 데이터의 품질을 파악하고 그 기준을 선정하는 것은 해양 항로 표지와 같은 분석에 있어서 중요한 역할을 한다. 본 연구에서는 해양 분야에서 디지털 항로표지 데이터의 품질 진단을 위해 공정능력지수를 이용하여 데이터의 품질을 정량적으로 산출하고 그 결과에 대한 판정 기준을 명확히 하여 데이터에 대한 품질을 판단할 수 있는 척도를 제시하였다.

  • PDF

자율주행 영상데이터의 신뢰도 향상을 위한 AI모델 기반 데이터 자동 정제 (AI Model-Based Automated Data Cleaning for Reliable Autonomous Driving Image Datasets)

  • 김가나;김학일
    • 방송공학회논문지
    • /
    • 제28권3호
    • /
    • pp.302-313
    • /
    • 2023
  • 본 연구는 과학기술정보통신부가 2017년부터 1조원 이상을 투자한 'AI Hub 댐' 사업에서 구축된 인공지능 모델 학습데이터의 품질관리를 자동화할 수 있는 프레임워크의 개발을 목표로 한다. 자율주행 개발에 사용되는 AI 모델 학습에는 다량의 고품질의 데이터가 필요하며, 가공된 데이터를 검수자가 데이터 자체의 이상을 검수하고 유효함을 증명하는 데는 여전히 어려움이 있으며 오류가 있는 데이터로 학습된 모델은 실제 상황에서 큰 문제를 야기할 수 있다. 본 논문에서는 이상 데이터를 제거하는 신뢰할 수 있는 데이터셋 정제 프레임워크를 통해 모델의 인식 성능을 향상시키는 전략을 소개한다. 제안하는 방법은 인공지능 학습용 데이터 품질관리 가이드라인의 지표를 기반으로 설계되었다. 한국정보화진흥원의 AI Hub을 통해 공개된 자율주행 데이터셋에 대한 실험을 통해 프레임워크의 유효성을 증명하였고, 이상 데이터가 제거된 신뢰할 수 있는 데이터셋으로 재구축될 수 있음을 확인하였다.

도시하천관리 연계 플랫폼 개발(I) (Development of urban river data management platform(I))

  • 이성학;심규철;구본현
    • 한국수자원학회논문집
    • /
    • 제52권12호
    • /
    • pp.1087-1098
    • /
    • 2019
  • 본 연구에서는 도시하천관리에 있어 이용되는 데이터를 수집, 정제 및 제공하는 기능을 수행하는 도시하천 통합데이터 플랫폼 개발을 수행하였다. 도시하천 통합데이터 플랫폼은 Open API서비스를 활용하여 다양한 기관에서 제공되는 데이터를 수집하는 기능을 가지고 있으며, 수집된 데이터는 전처리 과정을 통하여 정제되어 데이터베이스에 적재된다. 수집된 데이터는 시각화 시스템을 활용하여 검토 및 분석이 가능하며, 단위 Open API 형태로 제공되므로 도시하천모형에서 이를 조합하여 개별적인 입력자료로 활용할 수 있도록 하였다. 또한 실시간 데이터에 대한 제공시스템을 개발하여 도시하천모형에 실시간 데이터를 적용할 수 있도록 하였다. 이를 통하여 사용자는 데이터의 수집과 전처리, 입력자료 구축에 필요한 시간과 노력을 절감하여 도시하천관리 모형과 시스템의 개발에 있어 효율성과 확장성이 증대될 것으로 판단된다.

KDD와 데이터마이닝을 이용한 바이러스성전염병 유행예측조사 (Virus communicable disease cpidemic forecasting search using KDD and DataMining)

  • 윤종찬;윤성대
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2004년도 춘계학술발표대회
    • /
    • pp.47-50
    • /
    • 2004
  • 본 논문은 대량의 데이터를 처리하는 전염병에 관한 역학조사에 대한 과정을 KDD(Knowledge Discovery in Database)와 데이터마이닝 기법을 이용해서 의료 전문인들의 지식을 데이터베이스화하여 데이터 선정, 정제, 보강, 예측과 빠른 데이터 검출을 하도록 하였다. 그리고 각 바이러스의 동향은 데이터마이닝을 활용하므로 일부분만의 데이터를 산출하지 않고 전체적인 동향을 산출, 예측하도록 한다.

  • PDF

행정구역 위계정보와 편집거리를 이용한 오류입력에 강한 도로명주소 변환 (Error tolerant Korean Roadname Address Conversion using Hierarchical Administrative Division and Edit Distance)

  • 송재용
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 추계학술발표대회
    • /
    • pp.1182-1185
    • /
    • 2013
  • 도로명주소가 법적 주소체계로 지정되고 2014년도부터 전면 시행을 앞두고 있는 상황에서 기존의 지번주소를 도로명주소로 변경하려는 수요가 늘고 있으며 그에 따라 주소 전환 서비스를 제공하는 솔루션들이 증가하고 있다. 행정구역 체계에 따라 단계별로 입력된 지번주소의 도로명주소로의 변환은 크게 어렵지 않고 변환 성공율도 상당히 높지만 자유롭게 입력하여 정제되지 않은 형태의 주소는 전환에 실패하는 경우가 많다. 본 논문에서는 전산입력된 지번주소를 도로명주소로 변환시 주소형태가 정제되지 않은 상황에서도 변환 성공률을 높이기 위해 행정구역 줄임, 일부 주소정보 누락, 오타 등 여러 가지 변형 케이스에 대해서도 유연하게 변환을 수행하는 방안을 연구하였다. 이를 통해 기존 지번 주소의 표준 형태로의 정제는 최대 두 배까지 변환효율을 높일 수 있었다. 그러나 변환시 사용하는 도로명주소 매칭 테이블에 자료의 누락, 건물명의 불일치, 지번과 건물의 1:1 매칭이 되지 않는 경우가 존재하여 원활한 주소 전환을 위해서는 데이터의 정비가 필요하다.

V-PCC 부호화기의 그리드 기반 세그먼트 정제 고속화 (Fast Grid-Based Refine Segmentation on V-PCC encoder)

  • 김유라;김용환
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.265-268
    • /
    • 2022
  • Video-based Point Cloud Compression(V-PCC) 부호화기의 세그먼트 정제(Refining segmentation) 과정은 3D 세그먼트를 2D 패치 데이터로 효율적으로 변환하기 위한 V-PCC 부호화기의 핵심 파트이지만, 많은 연산량을 필요로 하는 모듈이다. 때문에 이미 TMC2 에 Fast Grid-based refine segmentation 과정이 구현되어 있으나, 아직도 세그먼트 정제 기술의 연산량은 매우 높은 편이다. 본 논문에서는 현재 TMC2 에 구현되어 있는 Fast Gridbased Refine Segmentation 을 살펴보고, 복셀(Voxel) 타입에 따른 특성에 맞춰 두 가지 조건을 추가하는 고속화 알고리즘을 제안한다. 실험 결과 압축성능(BD-BR)은 TMC2 와 거의 차이를 보이지 않았지만, 모듈 단위 평균 10% 연산량이 절감되는 것을 확인하였다.

  • PDF

기계학습 기반의 클라우드를 위한 센서 데이터 수집 및 정제 시스템 (Sensor Data Collection & Refining System for Machine Learning-Based Cloud)

  • 황치곤;윤창표
    • 한국정보통신학회논문지
    • /
    • 제25권2호
    • /
    • pp.165-170
    • /
    • 2021
  • 기계학습은 최근 대부분의 분야에서 적용하여 연구를 하고 있다. 이것은 기계학습의 결과가 결정된 것이 아니라 입력데이터의 학습으로 목적함수를 생성하고, 이를 통해 통하여 새로운 데이터에 대한 판단이 가능하기 때문이다. 또한, 축적된 데이터의 증가는 기계학습 결과의 정확도에 영향을 미친다. 이에 수집된 데이터는 기계학습에 중요한 요인이다. 제안하는 본 시스템은 서비스 제공을 위한 클라우드 시스템과 지역의 포그 시스템의 융합 시스템이다. 이에 클라우드 시스템은 서비스를 위한 머신러닝과 기반 구조를 제공하고, 포그 시스템은 클라우드와 사용자의 중간에 위치하여 데이터 수집 및 정제를 수행한다. 이를 적용하기 위한 데이터는 스마트기기에서 발생하는 센세 데이터로 한다. 이에 적용된 기계학습 기법은 분류를 위한 SVM알고리즘, 상태 인지를 위한 RNN 알고리즘을 이용한다.

국토 교통 공공데이터 기반 블랙아이스 발생 구간 예측 모델 (Black Ice Formation Prediction Model Based on Public Data in Land, Infrastructure and Transport Domain)

  • 나정호;윤성호;오효정
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권7호
    • /
    • pp.257-262
    • /
    • 2021
  • 매년 동절기 블랙아이스(Black Ice)로 인한 사고는 빈번하게 발생하고 있으며, 치사율은 다른 교통사고에 비해 매우 높다. 따라서 블랙아이스 발생 구간을 사전에 예측하기 위한 체계화된 방법이 필요하다. 이에 본 논문에서는 이질(heterogeneous)·다형(diverse)의 데이터를 활용한 블랙아이스 발생 구간 예측 모델을 제안한다. 이를 위해 국토 교통 공공데이터와 기상 공공데이터 42종의 12,574,630건을 수집하여, 결측값을 처리하고 정규화하는 등의 전처리 과정을 수행한 뒤 최종 약 60만여 건의 정제 데이터셋을 구축하였다. 수집된 요인들의 상관관계를 분석하여 블랙아이스 예측에 유효한 영향을 주는 21개 요인을 선별, 다양한 학습모델을 조합하는 방법을 통해 블랙아이스 발생 예측 모델을 구현하였다. 이를 통해 개발된 예측 모델은 최종적으로 노선별 블랙아이스 위험지수 도출에 사용되어 블랙아이스 발생 경고 서비스를 위한 사전 연구로 활용될 것이다.