• 제목/요약/키워드: 메모리 기반 학습

검색결과 140건 처리시간 0.028초

한국어 경량형 띄어쓰기 교정 시스템의 구현 (An Implementation of a Lightweight Spacing-Error Correction System for Korean)

  • 송영길;김학수
    • 컴퓨터교육학회논문지
    • /
    • 제12권2호
    • /
    • pp.87-96
    • /
    • 2009
  • 본 논문에서는 기존의 규칙 기반 방법과 통계 기반 방법의 장점을 취하면서도 메모리 사용량이 적은 한국어 띄어쓰기 교정 시스템을 제안한다. 또한 철자 오류와 조사 생략이 빈번히 발생하는 모바일 구어체에 강건하도록 모델을 학습시키기 위해서 일반 구어체 말뭉치로부터 가상의 구어체 말뭉치를 자동으로 구축하는 방법을 제안한다. 제안 시스템은 새로운 음절 패턴에 대한 적용 범위를 증가시키기 위해서 음절 유니그램 통계 정보를 이용하며, 정밀도 향상을 위해서 음절 바이그램 이상의 오류 교정 규칙을 이용한다. 가상의 모바일 구어체 문장에 대한 실험 결과에 따르면 제안 시스템은 1MB 내외의 적은 메모리를 사용하면서도 92.10%(일반 구어체 말뭉치에서 93.80%, 일반 균형 말뭉치에서 94.07%)라는 비교적 높은 정밀도를 보였다.

  • PDF

ELBP 분류기를 이용한 초해상도 기법의 CUDA 최적화 (CUDA Optimization of Super-Resolution Algorithm using ELBP Classifier)

  • 최지훈;송병철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2016년도 하계학술대회
    • /
    • pp.92-94
    • /
    • 2016
  • 저해상도 영상을 고해상도 영상으로 복원하기 위한 다양한 방법의 초해상도 기법이 존재한다. 다양한 기법들 중에서도 ELBP 분류기를 이용한 초해상도 기법[1]은 단일 영상 기반의 초해상도 기법으로 사전에 학습된 필터를 이용하여 고해상도 영상을 획득하는 기법이다. 그러나 해당 알고리즘을 일반적인 CPU 환경에서 수행할 경우 실시간으로 영상을 획득하는데 어려움이 존재한다. 본 논문에서는 지역메모리를 이용한 GPU 환경에서의 최적화를 수행하여 ELBP 분류기를 이용한 초해상도 기법의 가속성을 보인다. 먼저, 알고리즘에 대하여 간단히 설명하고 CUDA 가속화 기법[2]을 차례로 적용했을 때 얻을 수 있는 가속 성능을 확인한다. 최종적으로 본 논문은 CPU 환경과 비교했을 때 5 배의 가속 효과를 얻을 수 있다.

  • PDF

단일 문서의 특징 분석을 이용한 스팸 분류 방법 (Spam Classification by Analyzing Characteristics of a Single Web Document)

  • 심상권;이수원
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2014년도 추계학술발표대회
    • /
    • pp.845-848
    • /
    • 2014
  • 블로그는 인터넷에서 개인의 정보나 의견을 표출하고 커뮤니티를 형성하는데 사용되는 중요한 수단이나, 광고 유치, 페이지 순위 올리기, 쓰레기 데이터 생성 등 다양한 목적을 가진 스팸블로그가 생성되어 악용되기도 한다. 본 연구에서는 이러한 문제를 해결하기 위해 웹 문서에서 나타나는 특징들을 이용한 스팸 탐지 기법을 제안한다. 먼저 블로그 본문의 길이, 태그의 비율, 태그 수, 이미지 수, 랭크의 수 등 하나의 웹 문서에서 추출할 수 있는 특징을 기반으로 각 문서에 대한 특징 벡터를 생성하고 기계학습을 통해 모델을 생성하여 스팸 블로그를 판별한다. 제안 방법의 성능 평가를 위해 블로그 포스트 데이터를 사용하여 제안방법과 기존의 스팸 분류 연구를 비교 실험을 진행하였다. Bayesian 필터링 기법을 사용하는 기존연구와 비교 실험 결과, 제안방법이 더 좋은 정확도를 가지면서 특징 추출 속도 및 메모리 사용 효율성을 보였다.

얼굴 이미지 검색을 위한 Product Quantization 기반의 깊은 신경망 피쳐 매칭 (Pedestrian Detection using YOLO and Tracking)

  • 장영균;이석희;조남익
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2019년도 하계학술대회
    • /
    • pp.246-248
    • /
    • 2019
  • 최근 딥 러닝을 이용한 방법들이 이미지 분류에서 뛰어난 성능을 보임에 따라, 컴퓨터 비전의 중요한 문제 중 하나인 이미지 검색에도 이를 활용하고 있다. 특히, 이미지 검색에 사용할 수 있는 이미지 기술자 (Image descriptor)를 깊은 신경망 구조의 일부분인 Fully-connected layer에서 추출하여 사용하는 방법들이 제시되고 있고, 이를 위해 알맞은 목적함수를 설계하여 깊은 신경망을 학습하는 것이 중요해지고 있다. 딥 러닝을 통해 얻은 이미지 기술자는 실수형 데이터로서, 한 장의 이미지를 수치화하여 표현하는 데 많은 메모리를 소모하게 된다. 이를 보완하기 위해 이미지 기술자를 작은 용량의 이진코드로 mapping 하는 해싱 (hashing) 이라는 과정이 필수적이나 이에 따른 한계점이 발생한다. 본 연구에서는 실수형 데이터가 갖는 거리 계산에서의 이점과 이진코드의 장점을 동시에 살릴 수 있는 Product Quantization 방식의 이미지 검색 방법을 이용하여 한계점을 극복하였다. 우리는 제안한 방법을 얼굴 이미지 데이터 셋에 실험하였고 기존 방식보다 뛰어난 성능을 보이는 것을 확인할 수 있었다.

  • PDF

Softmax Loss를 이용한 Deep Hashing 모델에 대한 연구 (A Study on Deep Hashing Model Using Softmax)

  • 이기찬;김광수
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.584-587
    • /
    • 2021
  • 일반적으로 얼굴인식 시스템은 영상에서 추출한 Feature와 DB 상의 Feature를 비교하는 구조를 가지고 있다. 하지만 원하는 Class의 Feature만 보고 DB 상에서 일치하는 Class의 위치를 특정하는 것은 불가능하기에 DB 상의 모든 Feature와 비교하는 절차가 필요하다. DB 크기가 커짐에 따라 처리시간과 메모리상의 문제가 발생하는데, 이 논문에서는 이를 해결하기 위한 Deep Hashing 모델을 제안한다. Softmax 기반의 Loss를 이용하여 학습하였고, 8-bits의 해시를 추출하였을 때 53%의 Feature 일치율을 보였으며, 이를 사용할 경우 DB 평균 대조군을 23% 이하로 줄이는 효과를 볼 수 있을 것으로 추정한다.

텍스트 요약을 위한 스파크 기반 대용량 데이터 전처리 (Spark-Based Big Data Preprocessing for Text Summarization)

  • 지동준;전희국;임동혁
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.383-385
    • /
    • 2022
  • 텍스트 요약(Text Summarization)은 자연어 처리(NLP) 분야의 주요 작업 중 하나이다. 높은 정확성을 보이는 문서 요약 딥 러닝 모델을 만들기 위해서 대용량 학습 데이터가 필요한데, 대용량 데이터 전처리 과정에서 처리 시간, 메모리 관리 등과 같은 문제가 발생한다. 본 논문에서는 대규모 병렬처리 플랫폼 Apache Spark 를 사용해 추상 요약 딥 러닝 모델의 데이터 전처리 과정을 개선하는 방법을 제안한다. 실험 결과 제안한 방법이 기존 방법보다 데이터 전처리 시간이 개선된 결과를 보이고 있다.

BERT 기반 자연어처리 모델의 미세 조정을 통한 한국어 리뷰 감성 분석: 입력 시퀀스 길이 최적화 (Fine-tuning BERT-based NLP Models for Sentiment Analysis of Korean Reviews: Optimizing the sequence length)

  • 황성아;박세연;장백철
    • 인터넷정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.47-56
    • /
    • 2024
  • 본 연구는 BERT 기반 자연어처리 모델들을 미세 조정하여 한국어 리뷰 데이터를 대상으로 감성 분석을 수행하는 방법을 제안한다. 이 과정에서 입력 시퀀스 길이에 변화를 주어 그 성능을 비교 분석함으로써 입력 시퀀스 길이에 따른 최적의 성능을 탐구하고자 한다. 이를 위해 의류 쇼핑 플랫폼 M사에서 수집한 텍스트 리뷰 데이터를 활용한다. 웹 스크래핑을 통해 리뷰 데이터를 수집하고, 데이터 전처리 단계에서는 긍정 및 부정 만족도 점수 라벨을 재조정하여 분석의 정확성을 높였다. 구체적으로, GPT-4 API를 활용하여 리뷰 텍스트의 실제 감성을 반영한 라벨을 재설정하고, 데이터 불균형 문제를 해결하기 위해 6:4 비율로 데이터를 조정하였다. 의류 쇼핑 플랫폼에 존재하는 리뷰들을 평균적으로 약 12 토큰의 길이를 띄었으며, 이에 적합한 최적의 모델을 제공하기 위해 모델링 단계에서는 BERT기반 사전학습 모델 5가지를 활용하여 입력 시퀀스 길이와 메모리 사용량에 집중하여 성능을 비교하였다. 실험 결과, 입력 시퀀스 길이가 64일 때 대체적으로 가장 적절한 성능 및 메모리 사용량을 나타내는 경향을 띄었다. 특히, KcELECTRA 모델이 입력 시퀀스 길이 64에서 가장 최적의 성능 및 메모리 사용량을 보였으며, 이를 통해 한국어 리뷰 데이터의 감성 분석에서 92%이상의 정확도와 신뢰성을 달성할 수 있었다. 더 나아가, BERTopic을 활용하여 새로 입력되는 리뷰 데이터를 카테고리별로 분류하고, 최종 구축한 모델로 각 카테고리에 대한 감성 점수를 추출하는 한국어 리뷰 감성 분석 프로세스를 제공한다.

데이터 변형성 기반 유사성 연결을 위한 시각화 알고리즘 (Visualization Algorithm for Similarity Connection based on Data Transmutability)

  • 김분희
    • 한국전자통신학회논문지
    • /
    • 제9권11호
    • /
    • pp.1249-1254
    • /
    • 2014
  • 사람에 의해 만들어진 수많은 데이터를 기반으로 하는 빅 데이터는 유용한 정보를 얻기 위해 사용된다. 컴퓨터 프로그램의 특징에 인간 메모리의 변형성을 추가 한 기계 학습 기법을 적용 할 경우 보다 유용한 정보를 얻을 수 있다. 그리고 빅 데이터는 이러한 결론을 사용하여 예측된다. 인간은 원래의 데이터와 유사한 데이터를 기억하는 경향이 있다. 그래서 빅 데이터 처리 기술은 인간의 이러한 특성을 반영해야 한다. 본 연구에서는 정보의 선택성을 제공하는 알고리즘을 제안한다. 이 알고리즘은 위 요인들을 반영한 기술이다. 이 알고리즘은 데이터의 변형 특성에 기초하여 유사한 데이터를 결정하는 데 높은 선택성을 가진 데이터를 선택한다.

K-means 군집화 및 Harmony Search 알고리즘을 이용한 분산 SDN의 부하 분산 기법 (A Load Balancing Scheme for Distributed SDN Based on Harmony Search with K-means Clustering)

  • 김세준;유승언;이병준;김경태;윤희용
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2019년도 제59차 동계학술대회논문집 27권1호
    • /
    • pp.29-30
    • /
    • 2019
  • 본 논문에서는 다중 컨트롤러가 존재하는 분산 SDN 환경에서 과도한 제어 메시지로 인한 과부하된 컨트롤러의 부하를 줄이기 위하여 이주할 스위치를 K-means 군집화와 Harmony Search(HS)를 기반으로 선정 하는 기법을 제안하였다. 기존에 HS를 이용하여 이주할 스위치를 선택하는 기법이 제시되었으나, 시간 소모에 비하여 정확도가 부족한 단점이 있다. 또한 Harmony Memory(HM) 구축을 위해 메모리 소모 또한 크다. 이를 해결하기 위하여 본 논문에서는 유클리드 거리를 기반으로 하는 K-means 군집화를 이용하여 이주할 스위치를 골라내어 HM의 크기를 줄이고 이주 효율을 향상 시킨다.

  • PDF

Spark 프레임워크 기반 비정형 빅데이터 토픽 추출 시스템 설계 (A Design on Informal Big Data Topic Extraction System Based on Spark Framework)

  • 박기진
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권11호
    • /
    • pp.521-526
    • /
    • 2016
  • 온라인상에서 다루어지는 비정형 텍스트 데이터는 대용량이면서 비구조적 형태의 특성을 가지고 있기 때문에, 기존 관계형 데이터 모델의 저장 방식과 분석 방법만으로는 한계가 있다. 더군다나, 동적으로 발생하는 대량의 소셜 데이터를 활용하여 이용자의 반응을 실시간으로 분석하기란 어려운 상황이다. 이에 본 논문에서는 대용량 비정형 데이터(문서)의 의미를 빠르고, 용이하게 파악하기 위하여 데이터 셋에 대한 사전학습 없이, 문서 내 단어 비중에 따라 자동으로 토픽(주제)이 추출되는 시스템을 설계 및 구현하였다. 제안된 시스템의 토픽 모델링에 사용될 입력 단어는 N-gram 알고리즘에 의하여 도출되어 복수 개의 단어도 묶음 처리할 수 있게 했으며, 또한, 대용량 비정형 데이터 저장 및 연산을 위하여 Hadoop과 분산 인메모리 처리 프레임워크인 Spark 기반 클러스터를 구성하여, 토픽 모델 연산을 수행하였다. 성능 실험에서는 TB급의 소셜 댓글 데이터를 읽어 들여, 전체 데이터에 대한 전처리 과정과 특정 항목의 토픽 추출 작업을 수행하였으며, 대용량 데이터를 클러스터의 디스크가 아닌 메모리에 바로 적재 후, 처리함으로써 토픽 추출 성능의 우수성을 확인할 수 있었다.