• 제목/요약/키워드: 최근접 이웃

검색결과 187건 처리시간 0.036초

완전 자율주행을 위한 도로 상태 기반 제동 강도 계산 시스템 (The Road condition-based Braking Strength Calculation System for a fully autonomous driving vehicle)

  • 손수락;정이나
    • 인터넷정보학회논문지
    • /
    • 제23권2호
    • /
    • pp.53-59
    • /
    • 2022
  • 3단계 자율주행 차량 이후, 4, 5단계의 자율주행 기술은 차량의 완벽한 주행뿐만 아니라 탑승객의 상태를 최적으로 유지하기 위해 노력하고 있다. 그러나 현재 자율주행 기술은 LiDAR, 전방 카메라 등 시각적 정보에 과하게 의존하기 때문에 지정된 도로 이외의 도로에서 완벽하게 자율주행을 실행하기 힘들다. 따라서 본 논문은 차량이 시각 정보 외의 데이터를 사용하여 도로의 상태를 분류하고, 도로 상태와 주행 상태에 따라 최적의 제동 강도를 계산하는 BSCS (Braking Strength Calculation System)를 제안한다. 본 논문에서 제안하는 BSCS는 KNN 알고리즘을 기반으로 도로의 상태를 분류하는 RCDM (Road Condition Definition Module)과 RCDM의 결과와 현재 주행 상태를 통해 주행 중 최적의 제동 강도를 계산하는 BSCM (Braking Strength Calculation Module)로 구성된다. 본 논문의 실험 결과, KNN 알고리즘에 가장 적합한 K의 수를 찾을 수 있었고, 비지도 학습인 K-means 알고리즘보다 본 논문에서 제안한 RCDM이 더 정확한 것이 증명되었다. 해당 논문의 BSCS는 시각 정보뿐만 아니라 서스펜션에 가해지는 진동 데이터를 사용함으로써, 시각 정보가 제한되는 여러 환경에서 자율주행 차량의 제동을 더 원활하게 만들 수 있다.

DTW-kNN 기반의 유망 기술 식별을 위한 의사결정 지원 시스템 구현 방안 (Implementation of DTW-kNN-based Decision Support System for Discriminating Emerging Technologies)

  • 정도헌;박주연
    • 산업융합연구
    • /
    • 제20권8호
    • /
    • pp.77-84
    • /
    • 2022
  • 본 연구는 기계 학습 기반의 자동 분류 기법을 적용함으로써 유망 기술의 선정 과정에 활용할 수 있는 의사결정 지원 시스템의 구현 방안을 제시하는 것을 목표로 한다. 연구 수행을 위해 전체 시스템의 아키텍처를 구축하고 세부 연구 단계를 진행하였다. 우선, 유망 기술 후보 아이템을 선정하고 빅데이터 시스템을 활용하여 추세 데이터를 자동 생성하였다. 기술 발전의 개념 모델과 패턴 분류 체계를 정의한 후 자동 분류 실험을 통해 효율적인 기계 학습 방안을 제시하였다. 마지막으로 시스템의 분석 결과를 해석하고 활용 방안을 도출하고자 하였다. 본 연구에서 제안한 동적 시간 와핑(DTW) 기법과 k-최근접 이웃(kNN) 분류 모델을 결합한 DTW-kNN 기반의 분류 실험에서 최대 87.7%의 식별 성능을 보여주었으며, 특히 추세의 변동이 심한 'eventual' 정의 구간에서는 유클리디언 거리(ED) 알고리즘 대비 39.4% 포인트의 최대 성능 차이를 보여주어 제안 모델의 우수함을 확인할 수 있었다. 또한, 시스템이 제시하는 분석 결과를 통해, 대량의 추세 데이터를 입력받아 유형별로 자동 분류하고 필터링하는 과정에 본 의사결정 지원 시스템을 효과적으로 활용할 수 있음을 확인하였다.

수직 및 수평 방향의 밝깃값을 이용한 용접 비드 검출 검사 (Welding Bead Detection Inspection Using the Brightness Value of Vertical and Horizontal Direction)

  • 이재은;김종남
    • 융합신호처리학회논문지
    • /
    • 제23권4호
    • /
    • pp.241-248
    • /
    • 2022
  • SRD(Shear Reinforcement of Dual Anchorage)는 건축 현장에서 철근 콘크리트 구조물의 안전성을 보강하는 데 사용된다. 전단 보강재를 만들 때에는 용접이 사용되며, 용접은 제품의 생산성 및 경쟁력을 좌우하는 데 중요한 역할을 한다. 따라서 용접 비드 검출 검사가 필요하다. 본 연구에서는 용접 비드의 영상 자료를 이용하여 용접 비드를 검사하는 알고리즘을 제안한다. 제안한 알고리즘은 먼저 영상 내 수직 방향으로 밝깃값을 계산한 뒤, 밝깃값 분포의 50% 높이 지점에 해당하는 위치를 영상에서 찾아서 수직 방향으로 용접 비드를 분할한다. 그리고 수평 방향에 대해서도 동일한 방법으로 용접 비드 영역을 분할한 뒤, 분할 영상을 분석하여 용접비드 유무를 검사한다. 제안한 알고리즘은 관심 영역을 먼저 지정한 뒤 분석을 수행하여 연산량을 감소시켰다. 또한 SRD 영상에서 모재와 용접 비드 영역 사이에 밝깃값의 차이 특징을 이용하여 수직 및 수평 방향의 모든 밝깃값을 이용함으로써 정확도를 높일 수 있었다. 실험에서는 용접 비드 유무를 검출하기 위한 방법들로써 K-평균, k-최근접 이웃 등 5개의 알고리즘을 이용하여 분석 결과들을 비교하였으며, 타 알고리즘들에 비해 제안한 알고리즘의 정확도가 가장 높음을 보였다.

지형정보를 이용한 유효토심 분류방법비교 (Comparison of Effective Soil Depth Classification Methods Using Topographic Information)

  • 김병수;최주성;이자경;정나영;김태형
    • 한국지반신소재학회논문집
    • /
    • 제22권2호
    • /
    • pp.1-12
    • /
    • 2023
  • 국내외적으로 다양한 산사태 발생원인 분석과 취약지역의 예측이 이루어지고 있다. 본 연구에서는 산사태에서 발생하는 재해의 분석 및 예측에 사용되는 많은 특성 중 필수적인 요소인 유효토심을 지형정보를 이용해 예측했다. 지형정보 데이터를 각 기관별로 획득한 후 100m × 100m의 격자에 속성정보로 할당하고 데이터 등급화를 통해 차원을 축소 시켜주었다. 분류기준으로 3개 깊이(얕음, 보통, 깊음)와 5개 깊이(매우 얕음, 얕음, 보통, 깊음, 아주 깊음)의 두 가지 경우에 대해 유효토심을 예측했다. K-최근접 이웃, 랜덤 포레스트, 심층인공신경망 모델을 통해 예측하고 정확도, 정밀도, 재현율, F1-점수를 계산해 그 성능을 비교했다. 예측결과 모델에 따라 50% 후반에서 70% 초반의 성능을 보였다. 3개 분류기준의 정확도가 5개 분류기준의 정확도보다 5% 정도 높았다. 본 연구에서 제시한 등급화 기준과 분류모델의 성능은 아직 미흡하지만 유효토심의 예측에 있어서 분류모델의 적용이 가능하다고 판단된다. 큰 지역을 획일적으로 가정하여 사용하는 현재의 유효토심보다 신뢰성 있는 값의 예측이 가능하다고 사료된다.

단행본 서명의 단어 임베딩에 따른 자동분류의 성능 비교 (Performance Comparison of Automatic Classification Using Word Embeddings of Book Titles)

  • 이용구
    • 정보관리학회지
    • /
    • 제40권4호
    • /
    • pp.307-327
    • /
    • 2023
  • 이 연구는 짧은 텍스트인 서명에 단어 임베딩이 미치는 영향을 분석하기 위해 Word2vec, GloVe, fastText 모형을 이용하여 단행본 서명을 임베딩 벡터로 생성하고, 이를 분류자질로 활용하여 자동분류에 적용하였다. 분류기는 k-최근접 이웃(kNN) 알고리즘을 사용하였고 자동분류의 범주는 도서관에서 도서에 부여한 DDC 300대 강목을 기준으로 하였다. 서명에 대한 단어 임베딩을 적용한 자동분류 실험 결과, Word2vec와 fastText의 Skip-gram 모형이 TF-IDF 자질보다 kNN 분류기의 자동분류 성능에서 더 우수한 결과를 보였다. 세 모형의 다양한 하이퍼파라미터 최적화 실험에서는 fastText의 Skip-gram 모형이 전반적으로 우수한 성능을 나타냈다. 특히, 이 모형의 하이퍼파라미터로는 계층적 소프트맥스와 더 큰 임베딩 차원을 사용할수록 성능이 향상되었다. 성능 측면에서 fastText는 n-gram 방식을 사용하여 하부문자열 또는 하위단어에 대한 임베딩을 생성할 수 있어 재현율을 높이는 것으로 나타났다. 반면에 Word2vec의 Skip-gram 모형은 주로 낮은 차원(크기 300)과 작은 네거티브 샘플링 크기(3이나 5)에서 우수한 성능을 보였다.

동시출현단어 분석을 이용한 오픈 데이터 분야의 지적 구조 분석 (Intellectual Structure Analysis on the Field of Open Data Using Co-word Analysis)

  • 이혜경;이용구
    • 정보관리학회지
    • /
    • 제40권4호
    • /
    • pp.429-450
    • /
    • 2023
  • 본 연구의 목적은 오픈 데이터 관련 연구의 최근 동향과 지적 구조를 고찰하는 것이다. 이를 위하여 본 연구는 Scopus에서 저자 키워드로 'open data'를 검색하여 1999년부터 2023년까지 총 6,543건의 논문을 수집하였으며, 데이터 전처리 이후 5,589편 논문의 저자 키워드를 대상으로 오픈 데이터 관련 연구 분야 및 링크드 오픈 데이터 관련 연구 분야의 중심성 도출과 네트워크 분석을 수행하였다. 그 결과, 오픈 데이터 관련 연구에서는 'big data'가 가장 높은 중심성을 보였으며, 주로 공공데이터 개념의 오픈 데이터로서의 활용 및 정책 적용 연구, 빅데이터와의 연관개념으로서의 오픈 데이터를 활용한 데이터 분석에 관한 연구, 오픈 데이터의 재생산이나 활용 및 접근과 같은 오픈 데이터의 이용과 관련한 주제의 연구가 이뤄지고 있음이 나타났다. 그리고 링크드 오픈 데이터 관련 연구는 삼각매개중심성 및 최근접이웃중심성에서 모두 'semantic web'이 가장 높은 것으로 나타났으며, 정부 정책의 공공데이터보다 데이터 연계와 관계 형성을 중점으로 한 연구가 많이 수행된 것으로 나타났다.

데이터 리터러시 연구 분야의 주경로와 지적구조 분석 (Analyzing the Main Paths and Intellectual Structure of the Data Literacy Research Domain)

  • 이재윤
    • 정보관리학회지
    • /
    • 제40권4호
    • /
    • pp.403-428
    • /
    • 2023
  • 이 연구에서는 데이터 리터러시 분야 연구의 발전 경로와 지적구조 및 떠오르는 유망 주제를 파악하고자 하였다. 이를 위해서 Web of Science에서 검색한 데이터 리터러시 관련 논문은 교육학 분야와 문헌정보학 분야 논문이 전체의 60% 가까이를 차지하였다. 우선 인용 네트워크 분석에서는 페이지랭크 알고리즘을 사용해서 인용 영향력이 높은 다양한 주제의 핵심 논문을 파악하였다. 데이터 리터러시 연구의 발전 경로를 파악하기 위해서 기존의 주경로분석법을 적용해보았으나 교육학 분야의 연구 논문만 포함되는 한계가 있었다. 이를 극복할 수 있는 새로운 기법으로 페이지랭크 주경로분석법을 개발한 결과, 교육학 분야와 문헌정보학 분야의 핵심 논문이 모두 포함되는 발전 경로를 파악할 수 있었다. 데이터 리터러시 연구의 지적구조를 분석하기 위해서 키워드 서지결합 분석을 시행하였다. 도출된 키워드 서지결합 네트워크의 세부 구조와 군집 파악을 위해서 병렬최근접이웃클러스터링 알고리즘을 적용한 결과 대군집 2개와 그에 속한 소군집 7개를 파악할 수 있었다. 부상하는 유망 주제를 도출하기 위해서 각 키워드와 군집의 성장지수와 평균출판년도를 측정하였다. 분석 결과 팬데믹 상황과 AI 챗봇의 부상이라는 시대적 배경 하에서 사회정의를 위한 비판적 데이터 리터러시가 고등교육 측면에서 급부상하고 있는 것으로 나타났다. 또한 이 연구에서 연구의 발전경로를 파악하는 수단으로 새롭게 개발한 페이지랭크 주경로분석 기법은 서로 다른 영역에서 병렬적으로 발전하는 둘 이상의 연구흐름을 발견하기에 효과적이었다.

국내 건강정보관련 연구에 대한 계량서지학적 분석 (Bibliometric Analysis on Health Information-Related Research in Korea)

  • 김진원;이한슬
    • 정보관리학회지
    • /
    • 제41권1호
    • /
    • pp.411-438
    • /
    • 2024
  • 본 연구는 계량서지학적 분석 방법을 통해 여러 영역으로 나누어진 국내 건강정보 관련 연구를 통합적인 시각으로 보고자 하였다. 이를 위해 한국학술지인용색인 데이터베이스를 통해 2002년부터 2023년까지의 국내 '건강정보' 관련 논문 1,193편을 수집하여 시기별 동향, 학문분야, 지적구조, 키워드 변화 시기를 분석하였다. 분석결과, 건강정보 관련 논문 수는 지속적으로 증가하였으며, 2021년 이후 감소하고 있다. 건강정보 관련 연구의 주요 학문분야는 '의공학', '예방의학/직업환경의학', '법학', '간호학', '문헌정보학', '학제간연구'로 볼 수 있다. 건강정보 관련 연구의 지적구조를 파악하기 위해 단어동시출현분석을 시행하였다. 이후 도출된 네트워크의 구조와 군집파악을 위해 병렬최근접이웃클러스터링 알고리즘을 적용한 결과 '건강정보에 대한 의료공학적 관점'과 '건강정보에 대한 사회과학적 관점'이라는 2개의 대군집을 중심으로 그에 속한 4개의 중군집, 17개의 소군집을 파악할 수 있었다. 학문분야와 키워드의 변화 시기를 추적하기 위해 변곡점 분석을 시도하였으며 공통적으로 2010년과 2011년 사이에 변화가 있는 것으로 나타났다. 마지막으로 평균 출판년도와 단어출현빈도를 통해 전략 다이어그램을 도출하였으며 고빈도 키워드를 '유망', '성장', '성숙' 영역으로 구분하여 제시하였다. 본 연구는 주로 내용분석 중심의 선행연구들과 다르게 여러 가지 계량서지학적 방법을 통해 건강정보 관련 연구영역을 통합적인 시각으로 바라보았다는 데 의의가 있다.

부도예측을 위한 KNN 앙상블 모형의 동시 최적화 (Investigating Dynamic Mutation Process of Issues Using Unstructured Text Analysis)

  • 민성환
    • 지능정보연구
    • /
    • 제22권1호
    • /
    • pp.139-157
    • /
    • 2016
  • 앙상블 분류기란 개별 분류기보다 더 좋은 성과를 내기 위해 다수의 분류기를 결합하는 것을 의미한다. 이와 같은 앙상블 분류기는 단일 분류기의 일반화 성능을 향상시키는데 매우 유용한 것으로 알려져 있다. 랜덤 서브스페이스 앙상블 기법은 각각의 기저 분류기들을 위해 원 입력 변수 집합으로부터 랜덤하게 입력 변수 집합을 선택하며 이를 통해 기저 분류기들을 다양화 시키는 기법이다. k-최근접 이웃(KNN: k nearest neighbor)을 기저 분류기로 하는 랜덤 서브스페이스 앙상블 모형의 성과는 단일 모형의 성과를 개선시키는 데 효과적인 것으로 알려져 있으며, 이와 같은 랜덤 서브스페이스 앙상블의 성과는 각 기저 분류기를 위해 랜덤하게 선택된 입력 변수 집합과 KNN의 파라미터 k의 값이 중요한 영향을 미친다. 하지만, 단일 모형을 위한 k의 최적 선택이나 단일 모형을 위한 입력 변수 집합의 최적 선택에 관한 연구는 있었지만 KNN을 기저 분류기로 하는 앙상블 모형에서 이들의 최적화와 관련된 연구는 없는 것이 현실이다. 이에 본 연구에서는 KNN을 기저 분류기로 하는 앙상블 모형의 성과 개선을 위해 각 기저 분류기들의 k 파라미터 값과 입력 변수 집합을 동시에 최적화하는 새로운 형태의 앙상블 모형을 제안하였다. 본 논문에서 제안한 방법은 앙상블을 구성하게 될 각각의 KNN 기저 분류기들에 대해 최적의 앙상블 성과가 나올 수 있도록 각각의 기저 분류기가 사용할 파라미터 k의 값과 입력 변수를 유전자 알고리즘을 이용해 탐색하였다. 제안한 모형의 검증을 위해 국내 기업의 부도 예측 관련 데이터를 가지고 다양한 실험을 하였으며, 실험 결과 제안한 모형이 기존의 앙상블 모형보다 기저 분류기의 다양화와 예측 성과 개선에 효과적임을 알 수 있었다.

부채살 SPECT 데이터를 위한 정칙화된 기댓값 최대화 재구성기법 개발 (Development of Regularized Expectation Maximization Algorithms for Fan-Beam SPECT Data)

  • 김수미;이재성;이수진;김경민;이동수
    • 대한핵의학회지
    • /
    • 제39권6호
    • /
    • pp.464-472
    • /
    • 2005
  • 목적: 부채살 단일광자단층촬영(SPECT)은 공간분해능과 민감도를 개선하는 것으로 알려져 있다. 보다 정확한 영상을 얻고 인체에 대한 SPECT의 영상화 과정을 정확하게 묘사하기 위하여 평행 데이터로 재배열하는 과정 없이 직접 부채살 데이터를 이용하여 재구성하는 알고리즘이 필요하다. 본 연구는 다양한 부채살 재구성 알고리즘을 구현하였고 각 방법의 성능을 비교하였다. 대상 및 방법: 선추적법을 적용하여 부채살 투사기와 이로부터 얻은 데이터를 직접 재구성할 수 있는 FBP, EM, OS-EM과 MAP-EM OSL 알고리즘을 구현하였다. OSL 알고리즘의 경우에는 membrane과 thin plate prior를 사용하였다. 직접 부채살 데이터를 재구성하는 방법의 성능을 평가하기 위해 양방향 최근접 이웃, 양방향 1차와 양방향 3차 보간법을 사용하여 재배열된 평행 데이터를 얻었고 이 데이터를 기존의 평행 데이터에 대한 EM 알고리즘을 사용하여 재구성하였다. Hoffman 두뇌와 Shepp/Logan 팬텀으로부터 얻은 잡음 없는 데이터와 잡음 있는 데이터는 각 방법으로 재구성하였으며 퍼센트 오차를 계산하여 각 재구성된 영상을 비교하였다. 결과: Thin-plate 사전 분포함수를 사용한 OSL 방법이 가장 낮은 오차를 가지며 잡음으로 인한 결과 영상의 불안정성을 효과적으로 제어함을 확인할 수 있었다. 부채살 데이터를 평행 데이터로 재배열시 양방향 1차 보간법이 정확성과 계산 시간 측면에서 가장 효율적인 방법임을 확인하였다. 재배열된 평행 데이터의 EM결과에 비해 직접 부채살 데이터를 재구성하여 얻은 결과영상이 더 정확하게 재구성되었다. 결론: 본 연구에서는 평행 데이터로 재배열한 경우에 비하여 보다 정확한 영상을 재구성하는 직접 부채살 재구성 알고리즘을 구현하였으며 이는 정량적으로 월등히 개선된 결과를 제공함을 확인하였다.