• 제목/요약/키워드: Computational analysis

검색결과 9,296건 처리시간 0.053초

문장 분류를 위한 정보 이득 및 유사도에 따른 단어 제거와 선택적 단어 임베딩 방안 (Selective Word Embedding for Sentence Classification by Considering Information Gain and Word Similarity)

  • 이민석;양석우;이홍주
    • 지능정보연구
    • /
    • 제25권4호
    • /
    • pp.105-122
    • /
    • 2019
  • 텍스트 데이터가 특정 범주에 속하는지 판별하는 문장 분류에서, 문장의 특징을 어떻게 표현하고 어떤 특징을 선택할 것인가는 분류기의 성능에 많은 영향을 미친다. 특징 선택의 목적은 차원을 축소하여도 데이터를 잘 설명할 수 있는 방안을 찾아내는 것이다. 다양한 방법이 제시되어 왔으며 Fisher Score나 정보 이득(Information Gain) 알고리즘 등을 통해 특징을 선택 하거나 문맥의 의미와 통사론적 정보를 가지는 Word2Vec 모델로 학습된 단어들을 벡터로 표현하여 차원을 축소하는 방안이 활발하게 연구되었다. 사전에 정의된 단어의 긍정 및 부정 점수에 따라 단어의 임베딩을 수정하는 방법 또한 시도하였다. 본 연구는 문장 분류 문제에 대해 선택적 단어 제거를 수행하고 임베딩을 적용하여 문장 분류 정확도를 향상시키는 방안을 제안한다. 텍스트 데이터에서 정보 이득 값이 낮은 단어들을 제거하고 단어 임베딩을 적용하는 방식과, 정보이득 값이 낮은 단어와 코사인 유사도가 높은 주변 단어를 추가로 선택하여 텍스트 데이터에서 제거하고 단어 임베딩을 재구성하는 방식이다. 본 연구에서 제안하는 방안을 수행함에 있어 데이터는 Amazon.com의 'Kindle' 제품에 대한 고객리뷰, IMDB의 영화리뷰, Yelp의 사용자 리뷰를 사용하였다. Amazon.com의 리뷰 데이터는 유용한 득표수가 5개 이상을 만족하고, 전체 득표 중 유용한 득표의 비율이 70% 이상인 리뷰에 대해 유용한 리뷰라고 판단하였다. Yelp의 경우는 유용한 득표수가 5개 이상인 리뷰 약 75만개 중 10만개를 무작위 추출하였다. 학습에 사용한 딥러닝 모델은 CNN, Attention-Based Bidirectional LSTM을 사용하였고, 단어 임베딩은 Word2Vec과 GloVe를 사용하였다. 단어 제거를 수행하지 않고 Word2Vec 및 GloVe 임베딩을 적용한 경우와 본 연구에서 제안하는 선택적으로 단어 제거를 수행하고 Word2Vec 임베딩을 적용한 경우를 비교하여 통계적 유의성을 검정하였다.

계층 클러스터 트리 기반 라만 스펙트럼 식별 고속 검색 알고리즘 (A Hierarchical Cluster Tree Based Fast Searching Algorithm for Raman Spectroscopic Identification)

  • 김순금;고대영;박준규;박아론;백성준
    • 한국산학기술학회논문지
    • /
    • 제20권3호
    • /
    • pp.562-569
    • /
    • 2019
  • 최근에 원 거리에서 폭발 물질의 감지를 위해 라만 분광 기기의 관심이 점차 증가하고 있다. 더불어 측정된 화학물질에 대한 라만 스펙트럼을 대용량 데이터베이스의 알려진 라만 스펙트라와 비교하여 식별할 수 있는 고속 검색 방법에 대한 요구도 커지고 있다. 지금까지 가장 간단하고 널리 사용되는 방법은 주어진 스펙트럼과 데이터베이스 스펙트라 사이의 유클리드 거리를 계산하고 비교하는 방법이다. 하지만 고차원 데이터의 속성으로 검색의 문제는 그리 간단하지 않다. 가장 큰 문제점중의 하나는 검색 방법에 있어서 연산량이 많아 계산 시간이 너무 오래 걸린다는 것이다. 이러한 문제점을 극복하기 위해, 우리는 정렬된 분산에 따른 MPS Sort+PDS 방법을 제안하였다. 이 방법은 벡터의 두 개의 주요한 특징으로 평균과 분산을 사용하여 후보가 될 수 없는 많은 코드워드를 계산하지 않으므로 연산량을 줄이고 계산 시간을 줄여준다. 본 논문에서 우리는 기존의 방법보다 더욱 더 향상된 2가지 새로운 방법의 고속 검색 알고리즘을 제안한다. PCA+PDS 방법은 전체 데이터를 사용하는 거리 계산과 똑같은 결과를 가지면서 PCA 변환을 통해 데이터의 차수를 감소시켜 계산량을 줄여준다. Hierarchical Cluster Tree 알고리즘은 PCA 변환된 스펙트라 데이터를 사용하여 이진 계층 클러스터 트리를 만든다. 그런 후 입력 스펙트럼과 가장 가까운 클러스터부터 검색을 시작하여 후보가 될 수 없는 많은 스펙트라를 계산하지 않으므로 연산량을 줄이고 계산 시간을 줄여준다. 실험은 정렬된 분산에 따른 MPS Sort+PDS와 비교하여 PCA+PDS는 60.06%의 성능 향상을 보였다. Hierarchical Cluster Tree는 PCA+PDS와 비교하여 17.74%의 성능향상을 보였다. 실험결과는 제안된 알고리즘이 고속 검색에 적합함을 확인시켜 준다.

일체형 PM/NOx 동시저감장치의 최적 설계에 대한 기초 연구 (A Basis Study on the Optimal Design of the Integrated PM/NOx Reduction Device)

  • 최수정;;이원주;김준수;김정국;박호용;임인권;최재혁
    • 해양환경안전학회지
    • /
    • 제28권6호
    • /
    • pp.1092-1099
    • /
    • 2022
  • 대기오염물질과 온실가스 배출량을 저감 시키기 위한 배기 후처리 장치에 대한 연구는 활발히 진행 중이지만 그 중 선박용 입자상물질/질소산화물(PM/NOx) 동시저감 장치에서는 엔진에 미치는 배압 및 필터 담체 교체에 대한 문제가 발생하고 있다. 본 연구에서는 PM/NOx를 동시저감 할 수 있는 일체형 장치의 최적 설계를 위해 장치 내부 유동과 입·출구 압력을 통한 배압의 변화를 연구하여 적절한 기준을 제시하였다. Ansys Fluent를 활용하여 디젤미립자필터(DPF) 및 선택적촉매환원법(SCR)에 다공성 매체 조건을 적용하였고 공극률은 30 %, 40 %, 50 %, 60 % 및 70 %로 설정하였다. 또한, 엔진 부하에 따른 Inlet 속도를 경계 조건으로 7.4 m/s, 10.3 m/s, 13.1 m/s 및 26.2 m/s로 적용하여 배압에 미치는 영향을 분석하였다. CFD 분석 결과, 장치의 입구 온도 보다 입구 속도에 따른 배압의 변화율이 크고 최대 변화율은 27.4 mbar였다. 그리고 모든 경계 조건에서의 배압이 선급 기준인 68 mbar를 초과하지 않았기 때문에 1800 kW 선박에 적합한 장치로 평가되었다.

3D 프린팅 소재 화학물질의 독성 예측을 위한 Data-centric XAI 기반 분자 구조 Data Imputation과 QSAR 모델 개발 (Data-centric XAI-driven Data Imputation of Molecular Structure and QSAR Model for Toxicity Prediction of 3D Printing Chemicals)

  • 정찬혁;김상윤;허성구;;신민혁;유창규
    • Korean Chemical Engineering Research
    • /
    • 제61권4호
    • /
    • pp.523-541
    • /
    • 2023
  • 3D 프린터의 활용이 높아짐에 따라 발생하는 화학물질에 대한 노출 빈도가 증가하고 있다. 그러나 3D 프린팅 발생 화학물질의 독성 및 유해성에 대한 연구는 미비하며, 분자 구조 데이터의 결측치로 인해 in silico 기법을 사용한 독성예측 연구는 저조한 실정이다. 본 연구에서는 화학물질의 분자구조 정보를 나타내는 주요 분자표현자의 결측치를 보간하여 3D 프린팅의 독성 및 유해성을 예측한 Data-centric QSAR 모델을 개발하였다. 먼저 MissForest 알고리즘을 사용해 3D 프린팅으로 발생되는 유해물질의 분자표현자 결측치를 보완하였으며, 서로 다른 4가지 기계학습 모델(결정트리, 랜덤포레스트, XGBoost, SVM)을 기반으로 Data-centric QSAR 모델을 개발하여 생물 농축 계수(Log BCF)와 옥탄올-공기분배계수(Log Koa), 분배계수(Log P)를 예측하였다. 또한, 설명 가능한 인공지능(XAI) 방법론 중 TreeSHAP (SHapley Additive exPlanations) 기법을 활용하여 Data-centric QSAR 모델의 신뢰성을 입증하였다. MissForest 알고리즘 기반 결측지 보간 기법은, 기존 분자구조 데이터에 비하여 약 2.5배 많은 분자구조 데이터를 확보할 수 있었다. 이를 바탕으로 개발된 Data-centric QSAR 모델의 성능은 Log BCF, Log Koa와 Log P를 각각 73%, 76%, 92% 의 예측 성능으로 예측할 수 있었다. 마지막으로 Tree-SHAP 분석결과 개발된 Data-centric QSAR 모델은 각 독성치와 물리적으로 상관성이 높은 분자표현자를 통하여 선택함을 설명할 수 있었고 독성 정보에 대한 높은 예측 성능을 확보할 수 있었다. 본 연구에서 개발한 방법론은 다른 프린팅 소재나 화학공정, 그리고 반도체/디스플레이 공정에서 발생 가능한 오염물질의 독성 및 인체 위해성 평가에 활용될 수 있을 것으로 사료된다.

오픈소스 소프트웨어를 활용한 고고 유물의 디지털 실측 연구 (A Study on the Digital Drawing of Archaeological Relics Using Open-Source Software)

  • 이호선;안형기
    • 헤리티지:역사와 과학
    • /
    • 제57권1호
    • /
    • pp.82-108
    • /
    • 2024
  • 고고 자료의 기록방식이 아날로그 기록에서 디지털로 전환되면서 3D 스캐닝 기술의 도입은 본격화되었다. 현재 3D스캔과 사진측량을 이용한 고고 자료의 디지털 기록에 대한 연구와 도입은 지속적으로 이루어지고 있다. 하지만 비용, 인력 문제 등으로 인해 대부분의 매장문화재 기관에서는 적극적인 디지털 기술의 도입을 주저하고 있다. 본고는 3D 스캔 방식 중 효율성이 가장 높다고 평가되는 사진측량 기술을 이용하여 오픈소스 소프트웨어를 활용한 유물의 디지털 실측 방법을 제시하고자 한다. 유물의 디지털 실측 절차는 크게 3D 모델 획득, 3D 모델 편집 및 입단면도 제작, 전자도면 작성의 세 단계로 이루어진다. 디지털 기술 적용의 접근성을 살펴보기 위해 전 과정은 오픈소스 소프트웨어만을 이용하였다. 연구 결과 정량적 평가에서 실제 유물과 3D 모델의 수치 데이터 간 계측의 편차가 크지 않았다. 또한, 오픈소스 소프트웨어와 상용 소프트웨어 간 정량적 품질 비교분석 결과 유사도가 높았다. 다만 데이터 처리시간은 상용 소프트웨어의 성능이 우위에 있었다. 이는 지속적인 알고리즘 개선으로 인한 연산속도 향상의 결과로 판단된다. 정성적 평가에서는 메시 및 텍스처 품질의 차이가 일부 발생하였다. 오픈소스 소프트웨어로 생성된 3D 모델은 메시표면에 노이즈가 다수 발생하거나 메시의 표면이 부드럽지 않고 유물의 제작흔, 문양의 표현을 확인하기 어려웠다. 하지만 일부 프로그램에서 정량적·정성적 평가에서 상용 소프트웨어에 견줄 만한 품질을 획득할 수 있었다. 3D 모델 편집을 위한 오픈소스 소프트웨어에서는 사진실측 결과물의 후처리, 정합, 병합뿐만 아니라 유물 실측에 필요한 스케일 조정, 입단면도 제작 및 이미지 렌더링까지 가능하였다. 이후 오픈소스 캐드 프로그램에서 트레이싱하여 최종 도면을 완성하였다. 고고학 연구에서 사진실측의 적용은 발굴과정부터 보고서 작성 그리고 3D 모델 데이터의 수치정보를 이용한 연구 등 활용 가능성이 매우 높다. 컴퓨터 비전의 획기적인 발전으로 오픈소스 소프트웨어의 종류도 다양해졌고 성능도 상당부분 개선된 것으로 확인되었다. 누구나 쉽게 디지털 기술의 적용이 가능한 현재 고고 자료의 3D 모델 데이터의 획득은 문화유산의 보존과 연구 활성화를 위한 기초자료로 활용될 수 있다.

전이학습 기반 다중 컨볼류션 신경망 레이어의 활성화 특징과 주성분 분석을 이용한 이미지 분류 방법 (Transfer Learning using Multiple ConvNet Layers Activation Features with Principal Component Analysis for Image Classification)

  • 바트후 ?바자브;주마벡 알리하노브;팡양;고승현;조근식
    • 지능정보연구
    • /
    • 제24권1호
    • /
    • pp.205-225
    • /
    • 2018
  • Convolutional Neural Network (ConvNet)은 시각적 특징의 계층 구조를 분석하고 학습할 수 있는 대표적인 심층 신경망이다. 첫 번째 신경망 모델인 Neocognitron은 80 년대에 처음 소개되었다. 당시 신경망은 대규모 데이터 집합과 계산 능력이 부족하여 학계와 산업계에서 널리 사용되지 않았다. 그러나 2012년 Krizhevsky는 ImageNet ILSVRC (Large Scale Visual Recognition Challenge) 에서 심층 신경망을 사용하여 시각적 인식 문제를 획기적으로 해결하였고 그로 인해 신경망에 대한 사람들의 관심을 다시 불러 일으켰다. 이미지넷 첼린지에서 제공하는 다양한 이미지 데이터와 병렬 컴퓨팅 하드웨어 (GPU)의 발전이 Krizhevsky의 승리의 주요 요인이었다. 그러므로 최근의 딥 컨볼루션 신경망의 성공을 병렬계산을 위한 GPU의 출현과 더불어 ImageNet과 같은 대규모 이미지 데이터의 가용성으로 정의 할 수 있다. 그러나 이러한 요소는 많은 도메인에서 병목 현상이 될 수 있다. 대부분의 도메인에서 ConvNet을 교육하기 위해 대규모 데이터를 수집하려면 많은 노력이 필요하다. 대규모 데이터를 보유하고 있어도 처음부터 ConvNet을 교육하려면 많은 자원과 시간이 소요된다. 이와 같은 문제점은 전이 학습을 사용하면 해결할 수 있다. 전이 학습은 지식을 원본 도메인에서 새 도메인으로 전이하는 방법이다. 전이학습에는 주요한 두 가지 케이스가 있다. 첫 번째는 고정된 특징점 추출기로서의 ConvNet이고, 두번째는 새 데이터에서 ConvNet을 fine-tuning 하는 것이다. 첫 번째 경우, 사전 훈련 된 ConvNet (예: ImageNet)을 사용하여 ConvNet을 통해 이미지의 피드포워드 활성화를 계산하고 특정 레이어에서 활성화 특징점을 추출한다. 두 번째 경우에는 새 데이터에서 ConvNet 분류기를 교체하고 재교육을 한 후에 사전 훈련된 네트워크의 가중치를 백프로퍼게이션으로 fine-tuning 한다. 이 논문에서는 고정된 특징점 추출기를 여러 개의 ConvNet 레이어를 사용하는 것에 중점을 두었다. 그러나 여러 ConvNet 레이어에서 직접 추출된 차원적 복잡성을 가진 특징점을 적용하는 것은 여전히 어려운 문제이다. 우리는 여러 ConvNet 레이어에서 추출한 특징점이 이미지의 다른 특성을 처리한다는 것을 발견했다. 즉, 여러 ConvNet 레이어의 최적의 조합을 찾으면 더 나은 특징점을 얻을 수 있다. 위의 발견을 토대로 이 논문에서는 단일 ConvNet 계층의 특징점 대신에 전이 학습을 위해 여러 ConvNet 계층의 특징점을 사용하도록 제안한다. 본 논문에서 제안하는 방법은 크게 세단계로 이루어져 있다. 먼저 이미지 데이터셋의 이미지를 ConvNet의 입력으로 넣으면 해당 이미지가 사전 훈련된 AlexNet으로 피드포워드 되고 3개의 fully-connected 레이어의 활성화 틀징점이 추출된다. 둘째, 3개의 ConvNet 레이어의 활성화 특징점을 연결하여 여러 개의 ConvNet 레이어의 특징점을 얻는다. 레이어의 활성화 특징점을 연결을 하는 이유는 더 많은 이미지 정보를 얻기 위해서이다. 동일한 이미지를 사용한 3개의 fully-connected 레이어의 특징점이 연결되면 결과 이미지의 특징점의 차원은 4096 + 4096 + 1000이 된다. 그러나 여러 ConvNet 레이어에서 추출 된 특징점은 동일한 ConvNet에서 추출되므로 특징점이 중복되거나 노이즈를 갖는다. 따라서 세 번째 단계로 PCA (Principal Component Analysis)를 사용하여 교육 단계 전에 주요 특징점을 선택한다. 뚜렷한 특징이 얻어지면, 분류기는 이미지를 보다 정확하게 분류 할 수 있고, 전이 학습의 성능을 향상시킬 수 있다. 제안된 방법을 평가하기 위해 특징점 선택 및 차원축소를 위해 PCA를 사용하여 여러 ConvNet 레이어의 특징점과 단일 ConvNet 레이어의 특징점을 비교하고 3개의 표준 데이터 (Caltech-256, VOC07 및 SUN397)로 실험을 수행했다. 실험결과 제안된 방법은 Caltech-256 데이터의 FC7 레이어로 73.9 %의 정확도를 얻었을 때와 비교하여 75.6 %의 정확도를 보였고 VOC07 데이터의 FC8 레이어로 얻은 69.2 %의 정확도와 비교하여 73.1 %의 정확도를 보였으며 SUN397 데이터의 FC7 레이어로 48.7%의 정확도를 얻었을 때와 비교하여 52.2%의 정확도를 보였다. 본 논문에 제안된 방법은 Caltech-256, VOC07 및 SUN397 데이터에서 각각 기존에 제안된 방법과 비교하여 2.8 %, 2.1 % 및 3.1 %의 성능 향상을 보였다.