• 제목/요약/키워드: Preprocessing Process

검색결과 427건 처리시간 0.023초

기대최대화 알고리즘을 활용한 도로노면 training 자료 자동추출에 관한 연구 - 감독분류를 통한 도로 네트워크의 자동추출을 위하여 (Automatic Extraction of Training Dataset Using Expectation Maximization Algorithm - for Automatic Supervised Classification of Road Networks)

  • 한유경;최재완;이재빈;유기윤;김용일
    • 한국측량학회지
    • /
    • 제27권2호
    • /
    • pp.289-297
    • /
    • 2009
  • 본 논문은 감독분류 기법을 활용한 도로 네트워크 추출의 기본 과정인 트레이닝 자료의 추출과정을 자동화함으로써 감독분류를 활용한 도로 네트워크 추출 과정의 자동화에 기여할 수 있는 방법론의 개발을 목적으로 한다. 이를 위해 본 연구에서는 상호 기하보정 된 항공사진과 LIDAR 자료로부터 정사영상과 LIDAR 반사강도 영상을 제작하고, 기 구축된 수치지도를 활용하여 초기 트레이닝 자료를 자동으로 추출하였다. 하지만 위의 과정을 통하여 추출된 초기 트레이닝 자료는 기하보정과정에서 수반되는 기하학적 오차 및 다양한 개체들로 구성된 도로의 특성에 영향을 받아 다양한 분광특성을 포함하게 된다. 따라서 본 연구에서는 추출된 초기 트레이닝 자료에서 도로 추출의 기본이 되는 도로노면의 분광특성을 통계학적 기법인 기대최대화 알고리즘에 기초하여 효과적으로 결정하기 위한 방법론을 제안하였다. 또한 개발된 방법론의 평가를 위하여 동일지역에 대해 수동으로 취득한 트레이닝 자료와 본 연구에서 자동으로 추출한 자료를 비교 평가하여 정확도를 분석하였다. 실험결과에 대한 통계검증결과 본 논문에서 제안한 도로노면 트레이닝 자료 자동추출기법의 효용성을 증명하였다.

선형분석 기반의 심방세동 분류를 위한 불규칙 RR 간격의 최적값 검출 (Optimal Value Detection of Irregular RR Interval for Atrial Fibrillation Classification based on Linear Analysis)

  • 조익성;정종혁;조영창;권혁숭
    • 한국정보통신학회논문지
    • /
    • 제18권10호
    • /
    • pp.2551-2561
    • /
    • 2014
  • 심방세동 검출을 위한 기존 연구방법으로는 비선형 분석법과 주파수 분석법 등을 들 수 있지만 시간 영역 알고리즘에 비해 연산이 복잡하고 불규칙한 리듬 검출에 필요한 일반적 규칙을 제공하지 못한다. 이를 위해 본 연구에서는 선형 분석 기반의 심방세동 분류를 위한 불규칙 RR 간격의 최적값 검출 방법을 제안하였다. 이를 위해 먼저 전처리과정과 차감 기법을 통해 R파를 검출하였다. 이후 불규칙 RR 간격의 세그먼트 길이에 대한 범위를 설정하고 정규화 절대 편차와 절대치와 같은 선형 분석상의 심방세동 분류를 위한 최적값을 검출하였다. 제안된 알고리즘의 타당성 평가를 위해 MIT-BIH 부정맥과 심방세동 데이터베이스를 이용하여 RR 간격의 세그먼트 길이와 최적값에 대한 심방세동 분류율을 각각 비교 실험하였다. 성능 평가 결과, RR 간격과 연속하는 RR 간격 차에 대한 최적값은 ${\alpha}=0.75$, ${\beta}=1.4$, ${\gamma}=300ms$ 일 때 제일 높은 성능을 나타나는 것을 확인할 수 있었다.

효율적인 QRS 검출을 위한 형태 연산 기반의 기저선 잡음 제거 기법 (Baseline Wander Removing Method Based on Morphological Filter for Efficient QRS Detection)

  • 조익성;김주만;김선종;권혁숭
    • 한국정보통신학회논문지
    • /
    • 제17권1호
    • /
    • pp.166-174
    • /
    • 2013
  • 심전도 신호의 QRS 검출은 심장의 상태를 확인 할 수 있는 가장 보편적인 방법이다. 하지만 측정할 때 발생되는 여러 종류의 잡음성분들로 인하여 이를 분석하는데 어려움을 준다. 가장 큰 문제를 야기하는 부분이 기저선 변동 잡음인데 전극을 부착한 부위의 근육수축과 호흡의 리듬에 따라서 발생하게 된다. 특히 일반인들의 건강상태를 지속적으로 모니터링 해야 하는 헬스케어 시스템에서는 이를 위한 심전도 신호의 실시간 처리가 필요하다. 즉, 최소한의 연산량으로 대상 환자의 특징을 파악하여 정확한 QRS를 검출할 수 있는 적합한 알고리즘의 설계가 필요하다. 따라서 본 연구에서는 효율적인 QRS 검출을 위한 형태 연산기반의 기저선 잡음제거 기법을 제안한다. 이를 위해 형태 연산을 통한 전처리 과정과 적응형 윈도우를 통해 QRS를 검출하였다. 제안한 알고리즘의 성능을 평가하기 위해 일반적으로 심전도 기저선 변동 잡음 제거 시 사용되는 기존 필터와의 신호의 왜곡도를 비교 평가하였다. 또한 MIT-BIH 부정맥 데이터베이스를 사용하여 R파 검출 결과를 확인하였다. 실험 결과로부터 형태 연산을 이용한 방법이 적은 연산량으로 충분한 잡음제거율을 얻을 수 있다는 것을 확인할 수 있었다.

다중시기 위성 레이더 영상을 활용한 변화탐지 기술 리뷰 (A Review of Change Detection Techniques using Multi-temporal Synthetic Aperture Radar Images)

  • 백원경;정형섭
    • 대한원격탐사학회지
    • /
    • 제35권5_1호
    • /
    • pp.737-750
    • /
    • 2019
  • 접근 불능지역에 대한 표적의 변화 정보는 국가 안보의 측면에서 매우 중요하며 이상 징후에 조속히 대응하기 위해서는 신속하고 정확한 표적의 변화 탐지 결과 도출이 필수적이다. 위성 SAR는 기상 조건과 태양고도에 상관없이 높은 정확도의 영상을 취득할 수 있으며 최근 SAR 위성 수의 증가에 따라 동일 지역에 대하여 1일 미만의 시간 해상도로 영상획득이 가능해졌다. 이러한 장점으로 접근 불능지역에 대한 변화 탐지를 수행할 때 활용성이 크게 증대되었다. 위성 SAR에서 일반적으로 활용 가능한 정보는 강도와 위상 정보로 각각의 기술을 기반으로 변화 탐지 기술이 개발되었다. 강도기반 변화 탐지(ACD; Amplitude Change Detection), 긴밀도 기반 변화 탐지(CCD; Coherence Change Detection). 각각의 알고리즘은 정보의 특성 차이에 따라 변화탐지 기술 구현을 위한 전처리 과정이 다르고 각 알고리즘의 최종 탐지 결과물에 차이가 있다. 따라서 각각의 관측기술에 대한 학술적인 연구동향을 분석함으로써 각 변화탐지 기술의 장단점을 상호보완 할 수 있다. 본 논문의 목적은 위성 SAR 영상을 활용한 변화탐지와 관련하여 기존에 수행된 연구 문헌을 수집하고 동향을 파악하는 것이다. 이 연구는 지속적인 지표변화 탐지를 위한 필요 조건을 조사하여 향후 접근 불능지역에 대한 주기적 탐지 연구를 수행하는데 활용할 예정이다.

온·오프라인 댓글 분석이 활용된 Word2Vec 기반 상품기획 모델연구: 버티컬 무소음마우스 사용자를 중심으로 (A Study on the Product Planning Model based on Word2Vec using On-offline Comment Analysis: Focused on the Noiseless Vertical Mouse User)

  • 안영휘
    • 디지털융복합연구
    • /
    • 제19권10호
    • /
    • pp.221-227
    • /
    • 2021
  • 본 논문에서는 버티컬 무소음 마우스 10,000건에 대한 웹크롤링을 통해 수집된 정형화된 데이터셋을 Word2Vec을 이용하여 단어 간 유사도분석을 시행하고 컴퓨터공학과 대학생 92명에게 5일 동안 제시된 상품을 사용하게 하고 자가보고식 설문 분석을 시행하도록 하였다. 설문 분석은 서술식 형태로 수집하여 단어빈도 분석과 단어 간 유사도분석에서 추출된 상위 50개 단어를 제시하고 선택하는 방식으로 이루어졌다. 전자상거래 사용자 상품평 유사도 분석결과 내용 중 클릭 키워드에 대한 장점으로 통증(.985), 디자인(.963)가 분석되었으며 단점은 가볍다(.952), 적응(.948)이었다. 서술식 빈도분석에서는 버티컬(123개), 통증(118개)이 가장 많이 선택 되었으며 장/단점 유사단어를 선택에 해당되는 장점에서는 버티컬(83개), 통증(75개) 선택 되었으며 단점에서는 적응(89개), 버튼(72개)이었다. 따라서 본 연구에서 적용한 방식을 상품기획 프로세스의 신상품 개발 및 기존 상품의 검토 전략으로 반영 시 중견기업, 중소기업의 의사결정자와 상품기획자는 의사결정에 중대한 자료로 활용 할 수 있을 것으로 기대된다.

HEVC 부호기를 위한 효율적인 디블록킹 하드웨어 설계 (The Hardware Design of Effective Deblocking Filter for HEVC Encoder)

  • 박재하;박승용;류광기
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2014년도 추계학술대회
    • /
    • pp.755-758
    • /
    • 2014
  • 본 논문에서는 고해상도를 위한 고성능 HEVC(High Efficiency Video Coding) 디블록킹 필터 하드웨어 구조를 제안한다. 제안하는 하드웨어 구조는 필터링 수행시간 단축과 게이트 수 감소를 위한 효율적인 필터링 순서 및 메모리 구조를 가진다. 제안하는 필터링 순서는 전처리 단계에서 단일 포트 SRAM에 데이터를 저장할 때 발생하는 지연시간을 감소시켰고, 고해상도 영상의 실시간 처리를 위해 4단 파이프라인 구조와 10개의 메모리 구조로 설계하였다. 제안하는 메모리 구조는 단일 포트 SRAM을 접근하면서 발생하는 해저드 문제를 해결하였다. 또한 필터링 수행시간을 단축하기 위해 두개의 필터를 사용하여 병렬처리 구조로 구현하였으며, 저전력 하드웨어 구조를 위해 클록 게이팅 구조로 설계하였다. 본 논문에서 제안하는 디블록킹 필터 부호화기 하드웨어는 Verilog HDL로 설계 하였으며, TSMC $0.18{\mu}m$ CMOS 표준 셀 라이브러리를 이용하여 합성한 결과 100k개의 로직 게이트로 구현되었다. 또한, 동작 주파수는 150MHz에서 4K 해상도인 $4096{\times}2160@30$ 처리가 가능하다.

  • PDF

딥러닝 중심의 자연어 처리 기술 현황 분석 (Analysis of the Status of Natural Language Processing Technology Based on Deep Learning)

  • 박상언
    • 한국빅데이터학회지
    • /
    • 제6권1호
    • /
    • pp.63-81
    • /
    • 2021
  • 자연어 처리는 최근 기계학습 및 딥러닝 기술의 발전과 적용으로 성능이 빠르게 향상되고 있으며, 이로 인해 활용 분야도 넓어지고 있다. 특히 비정형 텍스트 데이터에 대한 분석 요구가 증가함에 따라 자연어 처리에 대한 관심도 더욱 높아지고 있다. 그러나 자연어 전처리 과정 및 기계학습과 딥러닝 이론의 복잡함과 어려움으로 인해 아직도 자연어 처리 활용의 장벽이 높은 편이다. 본 논문에서는 자연어 처리의 전반적인 이해를 위해 현재 활발히 연구되고 있는 자연어 처리의 주요 분야와 기계학습 및 딥러닝을 중심으로 한 주요 기술의 현황에 대해 살펴봄으로써, 보다 쉽게 자연어 처리에 대해 이해하고 활용할 수 있는 기반을 제공하고자 한다. 이를 위해 인공지능 기술 분류체계의 변화를 통해 자연어 처리의 비중 및 변화 과정을 살펴보았으며, 기계학습과 딥러닝을 기반으로 한 자연어 처리 주요 분야를 언어 모델, 문서 분류, 문서 생성, 문서 요약, 질의응답, 기계번역으로 나누어 정리하고 각 분야에서 가장 뛰어난 성능을 보이는 모형들을 살펴보았다. 그리고, 자연어 처리에서 활용되고 있는 주요 딥러닝 모형들에 대해 정리하고 자연어 처리 분야에서 사용되는 데이터셋과 성능평가를 위한 평가지표에 대해 정리하였다. 본 논문을 통해, 자연어 처리를 자신의 분야에서 다양한 목적으로 활용하고자 하는 연구자들이 자연어 처리의 전반적인 기술 현황에 대해 이해하고, 자연어 처리의 주요 기술 분야와 주로 사용되는 딥러닝 모형 및 데이터셋과 평가지표에 대해 보다 쉽게 파악할 수 있기를 기대한다.

마우스 뇌의 구조적 연결성 분석을 위한 분석 방법 (Analytical Methods for the Analysis of Structural Connectivity in the Mouse Brain)

  • 임상진;백현만
    • 한국방사선학회논문지
    • /
    • 제15권4호
    • /
    • pp.507-518
    • /
    • 2021
  • 자기공명영상(MRI)은 뇌의 구조적 및 기능적 연구에서 핵심 기술로 필요성이 증가하고 있다. Tractography 분석을 이용하는 뇌지도(Connectome)는 MRI를 통해 뇌의 구조적 연결성을 확인하고 연결성의 변동성을 이용해 질병 병리학에 대한 이해를 높이는 방법으로 인간을 대상으로 활발한 연구가 진행되고 있다. 하지만 마우스 같은 작은 동물의 경우 분석 방법의 표준화가 부족하고 영상에 대한 정확한 전처리 전략 및 아틀라스 기반 신경 정보학에 대한 과학적 합의가 없다. 또한, 인간의 뇌에 비해 마우스의 뇌는 매우 작기 때문에 높은 해상도를 갖는 영상을 획득하는 것에도 어려움이 있다. 연구에서는 구조적 영상과 확산 텐서 영상을 이용해 구조 영역 세분화를 포함한 구조적 연결성 분석을 가능하게 하고 마우스 뇌 데이터를 처리하는 Allen Mouse Brain Atlas 기반 영상 데이터 분석 파이프라인을 제시한다. 각 분석 방법은 마우스 뇌 영상 데이터의 분석을 가능하게 하고 이미 인간 영상데이터로 검증된 소프트웨어를 이용해 신뢰성을 가질 수 있게 하였다. 또한, 연구에서 제시되는 파이프라인은 복잡한 분석 과정과 다양한 기능들 중 마우스 Tractography에 필요한 기능들을 정리하여 사용자가 효율적으로 데이터 처리를 하는데 최적화되었다.

Sentiment Analysis of Product Reviews to Identify Deceptive Rating Information in Social Media: A SentiDeceptive Approach

  • Marwat, M. Irfan;Khan, Javed Ali;Alshehri, Dr. Mohammad Dahman;Ali, Muhammad Asghar;Hizbullah;Ali, Haider;Assam, Muhammad
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제16권3호
    • /
    • pp.830-860
    • /
    • 2022
  • [Introduction] Nowadays, many companies are shifting their businesses online due to the growing trend among customers to buy and shop online, as people prefer online purchasing products. [Problem] Users share a vast amount of information about products, making it difficult and challenging for the end-users to make certain decisions. [Motivation] Therefore, we need a mechanism to automatically analyze end-user opinions, thoughts, or feelings in the social media platform about the products that might be useful for the customers to make or change their decisions about buying or purchasing specific products. [Proposed Solution] For this purpose, we proposed an automated SentiDecpective approach, which classifies end-user reviews into negative, positive, and neutral sentiments and identifies deceptive crowd-users rating information in the social media platform to help the user in decision-making. [Methodology] For this purpose, we first collected 11781 end-users comments from the Amazon store and Flipkart web application covering distant products, such as watches, mobile, shoes, clothes, and perfumes. Next, we develop a coding guideline used as a base for the comments annotation process. We then applied the content analysis approach and existing VADER library to annotate the end-user comments in the data set with the identified codes, which results in a labelled data set used as an input to the machine learning classifiers. Finally, we applied the sentiment analysis approach to identify the end-users opinions and overcome the deceptive rating information in the social media platforms by first preprocessing the input data to remove the irrelevant (stop words, special characters, etc.) data from the dataset, employing two standard resampling approaches to balance the data set, i-e, oversampling, and under-sampling, extract different features (TF-IDF and BOW) from the textual data in the data set and then train & test the machine learning algorithms by applying a standard cross-validation approach (KFold and Shuffle Split). [Results/Outcomes] Furthermore, to support our research study, we developed an automated tool that automatically analyzes each customer feedback and displays the collective sentiments of customers about a specific product with the help of a graph, which helps customers to make certain decisions. In a nutshell, our proposed sentiments approach produces good results when identifying the customer sentiments from the online user feedbacks, i-e, obtained an average 94.01% precision, 93.69% recall, and 93.81% F-measure value for classifying positive sentiments.

구글어스엔진 클라우드 컴퓨팅 플랫폼 기반 위성 빅데이터를 활용한 수재해 모니터링 연구 (Research of Water-related Disaster Monitoring Using Satellite Bigdata Based on Google Earth Engine Cloud Computing Platform)

  • 박종수;강기묵
    • 대한원격탐사학회지
    • /
    • 제38권6_3호
    • /
    • pp.1761-1775
    • /
    • 2022
  • 예측하기 힘든 기후변화로 인해 물 관련 재해의 발생 빈도와 피해 규모도 지속적으로 증가하는 추세이다. 재난관리의 측면에서 광범위한 지역의 피해면적을 파악하고, 중·장기적 예측을 위한 모니터링이 필수적이다. 수재해 분야에서 광역적 모니터링을 위해 Synthetic Aperture Radar (SAR) 위성영상을 활용한 원격탐사 기술 연구가 활발히 진행되고 있다. 수재해 모니터링을 위한 시계열 분석에는 방대한 양의 영상수집과 잡음이 많은 레이더 산란 특성을 고려한 복잡한 전처리과정이 필요하며, 이를 위해 상당한 시간이 소요되는 한계가 있다. 최근 클라우드 컴퓨팅 기술의 발전과 함께 위성 빅데이터를 활용한 시·공간 분석이 가능한 많은 플랫폼들이 제안되고 있다. 구글어스엔진(Google Earth Engine, GEE)은 대표적인 플랫폼으로, 600여개의 위성 자료를 무료로 제공하고 있으며 위성영상의 분석준비데이터를 기반으로 준-실시간 시·공간 분석이 가능하다. 이에 본 연구에서는 구글어스엔진을 활용한 즉각적인 수재해 피해 탐지와 중·장기적 시계열 관측 연구를 수행하였다. 변화탐지에 주로 활용되는 Otsu 기법을 통해 '20년 발생한 집중호우를 중심으로 하천 범람으로 인한 하폭의 변화와 피해 면적을 확인하였다. 또한 재난관리 측면에서 모니터링의 중요성이 요구되는 만큼 상습침수지역으로 선정된 연구대상 지역을 중심으로 '18년부터 '22년까지의 시계열 수체의 변화 경향을 확인하였다. 구글어스엔진은 자바스크립트 기반 코딩을 통한 짧은 처리시간, 시공간 분석과 표출의 강점으로 수재해 분야 활용이 가능할 것으로 판단된다. 더불어 향후 다양한 위성 빅데이터와의 연계를 통해 활용 분야가 확대될 것으로 기대된다.