• Title/Summary/Keyword: data dictionary

Search Result 346, Processing Time 0.022 seconds

소셜데이터 감성분석을 통한 사용자의 호감도 분석 (Favorable analysis of users through the social data analysis based on sentimental analysis)

  • 이민규;손효정;성백민;김종배
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2014년도 추계학술대회
    • /
    • pp.438-440
    • /
    • 2014
  • 최근 폭발적으로 증가하는 SNS서비스의 상업적으로 이용하려는 움직임이 활발하다. 따라서 본 논문은 실시간 SNS 환경에서 제조기업과 제품의 평판에 관련된 정보를 정확하게 분석 할 수 있는 방안을 제시한다. 크롤링 방식으로 수집된 SNS의 텍스트 데이터들에 대한 형태소 분석을 수행하여 단어 간 연관성을 파악한다. 또, 문장에서 추출된 형태소는 구축된 감성사전을 통해 통계적으로 분석하여 이를 시각화 하여 보여준다. 이때, 추출된 단어가 감성사전에 존재하지 않을 경우 이를 자동으로 추가하는 기법을 제안한다.

  • PDF

Energy Efficient and Low-Cost Server Architecture for Hadoop Storage Appliance

  • Choi, Do Young;Oh, Jung Hwan;Kim, Ji Kwang;Lee, Seung Eun
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제14권12호
    • /
    • pp.4648-4663
    • /
    • 2020
  • This paper proposes the Lempel-Ziv 4(LZ4) compression accelerator optimized for scale-out servers in data centers. In order to reduce CPU loads caused by compression, we propose an accelerator solution and implement the accelerator on an Field Programmable Gate Array(FPGA) as heterogeneous computing. The LZ4 compression hardware accelerator is a fully pipelined architecture and applies 16 dictionaries to enhance the parallelism for high throughput compressor. Our hardware accelerator is based on the 20-stage pipeline and dictionary architecture, highly customized to LZ4 compression algorithm and parallel hardware implementation. Proposing dictionary architecture allows achieving high throughput by comparing input sequences in multiple dictionaries simultaneously compared to a single dictionary. The experimental results provide the high throughput with intensively optimized in the FPGA. Additionally, we compare our implementation to CPU implementation results of LZ4 to provide insights on FPGA-based data centers. The proposed accelerator achieves the compression throughput of 639MB/s with fine parallelism to be deployed into scale-out servers. This approach enables the low power Intel Atom processor to realize the Hadoop storage along with the compression accelerator.

손실 영역 분석 기반의 학습데이터 매핑 기법을 이용한 초해상도 연구 (Super Resolution using Dictionary Data Mapping Method based on Loss Area Analysis)

  • 한현호;이상훈
    • 한국융합학회논문지
    • /
    • 제11권3호
    • /
    • pp.19-26
    • /
    • 2020
  • 본 논문에서는 학습된 사전 기반 초해상도 결과를 개선하기 위해 분석한 손실 영역을 기반으로 학습 데이터를 적용하는 방법을 제안하였다. 기존의 학습된 사전 기반 방법은 입력 영상의 특징을 고려하지 않는 학습된 영상의 형태로 출력할 수 있으며, 이 과정에서 인공물이 발생할 수 있다. 제안하는 방법은 입력 영상과 학습된 영상의 일치하지 않는 특징으로 인한 인공물 발생을 줄이기 위해 1차 복원 결과를 분석함으로써 손실 정보를 추정하였다. 추정된 결과의 잡음 및 화소 불균형을 가우시안 기반의 커널로 개선하여 생성된 특징 맵에 따라 학습 데이터를 매핑하였다. 결과 비교를 위해 기존의 초해상도 방법과 제안 방법의 결과를 고화질 영상과 PSNR(Peak Signal to Noise Ratio), SSIM(Structural SIMilarity Index) 으로 비교한 결과 각각 4%와 3%의 향상된 결과를 확인하였다.

헬스케어 분야 빅데이터 분석을 위한 개체명 사전구축에 새로운 역 N-Gram 적용 연구 (A Study on Applying Novel Reverse N-Gram for Construction of Natural Language Processing Dictionary for Healthcare Big Data Analysis)

  • 이경현;백락준;김우수
    • 문화기술의 융합
    • /
    • 제10권3호
    • /
    • pp.391-396
    • /
    • 2024
  • 본 연구에서는 헬스케어 분야에 특화된 개체명 사전을 구축하기 위해 기존 N-Gram 방식의 한계를 극복하고 성능을 향상하게 시키기 위해 새로운 역 N-Gram 방식을 제안하였다. 제안된 역 N-Gram 방식은 헬스케어 관련 빅데이터의 복잡한 언어적 특성을 더 정밀하게 분석하고 처리할 수 있다. 제안된 방식의 효율성 검증을 위해 매년 1월에 개최되는 소비자 가전 전시회(Consumer Electronics Show: CES) 기간 동안 발표된 헬스케어 및 디지털 헬스케어 관련 빅데이터를 수집하기 위하여 뉴스를 대상으로 2010년 1월 1일부터 31일, 그리고 2024년 1월 1일부터 31일까지 언급된 2,185건의 뉴스 제목 및 요약문을 파이썬 프로그래밍언어로 새로운 역 N-Gram 방식을 구현하여 전처리한 결과, 헬스케어 분야에서의 자연어 처리를 위한 사전이 안정적으로 구축되었음을 확인할 수 있었다.

상호정보량과 복합명사 의미사전에 기반한 동음이의어 중의성 해소 (Homonym Disambiguation based on Mutual Information and Sense-Tagged Compound Noun Dictionary)

  • 허정;서희철;장명길
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권12호
    • /
    • pp.1073-1089
    • /
    • 2006
  • 자연언어처리의 목적은 컴퓨터가 자연어를 이해할 수 있도록 하여, 인간에게 다양한 정보를 정확하고 빠르게 전달할 수 있도록 하고자 하는 것이다. 이를 위해서는 언어의 의미를 정확히 파악하여야 하는데, 어휘 의미 중의성 해소가 필수적인 기술이다. 본 연구는 상호정보량과 기 분석된 복합명사 의미사전에 기반한 동음이의어 의미 중의성 해소를 위한 기술을 소개한다. 사전 뜻풀이를 이용하는 기존 기술들은 어휘들간의 정확한 매칭에 의존하기 때문에 자료 부족 현상이 심각하였다. 그러나, 본 연구에서는 어휘들간의 연관계수인 상호정보량을 이용함으로써 이 문제를 완화시켰다. 또한, 언어적인 특징을 반영하기 위해서 상호정보량을 가지는 어휘 쌍의 비율 가중치, 의미 별 비율 가중치와 뜻풀이의 길이 가중치를 사용하였다. 그리고, 복합명사를 구성하는 단일명사들은 서로의 의미를 제약한다는 것에 기반하여 고빈도 복합명사에 대해서 의미를 부착한 의미사전을 구축하였고, 이를 동음이의어 중의성 해소에 활용하였다. 본 시스템의 평가를 위해 질의응답 평가셋의 200 여 개의 질의와 정답단락을 대상으로 동음이의어 의미 중의성 해소 평가셋을 구축하였다. 평가셋에 기반하여 네 유형의 실험을 수행하였다. 실험 결과는 상호 정보량만을 이용하였을 때 65.06%의 정확률을 보였고, 가중치를 활용하였을 때 85.35%의 정확률을 보였다. 또한, 복합명사 의미분석 사전을 활용하였을 때는 88.82%의 정확률을 보였다.

감성분석 결과와 사용자 만족도와의 관계 -기상청 사례를 중심으로- (Relationship between Result of Sentiment Analysis and User Satisfaction -The case of Korean Meteorological Administration-)

  • 김인겸;김혜민;임병환;이기광
    • 한국콘텐츠학회논문지
    • /
    • 제16권10호
    • /
    • pp.393-402
    • /
    • 2016
  • 기상청에서 현재 시행되고 있는 만족도 설문조사의 한계를 보완하기 위해 SNS를 통한 감성분석이 활용될 수 있다. 감성분석은 2011~2014년 동안 '기상청'을 언급한 트위터를 수집하여 나이브 베이즈 방법으로 긍정, 부정, 중립 감성을 분류하였다. 기본적인 나이브 베이즈 방법에 긍정, 부정, 중립의 각 감성에서만 출현한 형태소들로 추가사전을 만들어 감성분석의 정확도를 향상시키는 방법을 제안하였다. 분석결과 기본적인 나이브 베이즈 방법으로 감성을 분류할 경우 약 75%의 정확도로 학습데이터를 재현한데 반해 추가 사전을 적용할 경우 약 97%의 정확성을 보였다. 추가사전을 활용하여 검증자료의 감성을 분류한 결과 약 75%의 분류 정확도를 보였다. 낮은 분류 정확도는 향후 기상 관련의 다양한 키워드를 포함시켜 학습데이터 양을 늘려 감성사전의 질을 높임과 동시에 상시적인 사전의 업데이트를 통해 개선될 수 있을 것이다. 한편, 개별 어휘의 사전적 의미에 기반한 감성분석과 달리 문장의 의미에 기반하여 감성을 분류할 경우 부정적 감성 비율의 증가와 만족도 변화 추이를 설명할 수 있을 것으로 보여 향후 설문조사를 보완할 수 있는 좋은 수단으로 SNS를 통한 감성분석이 활용될 수 있을 것으로 사료된다.

Memory Performance of Electronic Dictionary-Based Commercial Workload

  • Lee, Changsik;Kim, Hiecheol;Lee, Yongdoo
    • 한국산업정보학회논문지
    • /
    • 제7권5호
    • /
    • pp.39-48
    • /
    • 2002
  • 인터넷의 급속한 성장에 따라 전자사전에 대한 트랜잭션 처리를 기반으로 하는 상용 응용 소프트웨어의 사용이 증가하고 있다. 그 전형적인 예로서 인터넷 검색엔진을 들을 수 있다. 본 논문에서는 고성능 전자사전의 구축을 위한 새로운 접근방법을 제시한다 전자사전의 메모리 구현에 있어 트라이 데이터 구조를 사용하는 기존의 방식과는 달리, 본 논문에서 제시하는 방식은 다차원 이진트리 구조를 사용한다. 본 논문에서는 다차원 이진트리 기반의 전자사전이 ED-MBT(Electronic Dictionary based on Multidimensional Binary Tree)의 구현 내용과 실용적인 응용 소프트웨어에서 ED-MBT가 갖는 성능향상에 관한 세부적인 분석 결과를 제시한다.

  • PDF

확률적 문법규칙에 기반한 국어사전의 뜻풀이말 구문분석기 (A Parser of Definitions in Korean Dictionary based on Probabilistic Grammar Rules)

  • 이수광;옥철영
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제28권5호
    • /
    • pp.448-448
    • /
    • 2001
  • The definitions in Korean dictionary not only describe meanings of title, but also include various semantic information such as hypernymy/hyponymy, meronymy/holonymy, polysemy, homonymy, synonymy, antonymy, and semantic features. This paper purposes to implement a parser as the basic tool to acquire automatically the semantic information from the definitions in Korean dictionary. For this purpose, first we constructed the part-of-speech tagged corpus and the tree tagged corpus from the definitions in Korean dictionary. And then we automatically extracted from the corpora the frequency of words which are ambiguous in part-of-speech tag and the grammar rules and their probability based on the statistical method. The parser is a kind of the probabilistic chart parser that uses the extracted data. The frequency of words which are ambiguous in part-of-speech tag and the grammar rules and their probability resolve the noun phrase's structural ambiguity during parsing. The parser uses a grammar factoring, Best-First search, and Viterbi search In order to reduce the number of nodes during parsing and to increase the performance. We experiment with grammar rule's probability, left-to-right parsing, and left-first search. By the experiments, when the parser uses grammar rule's probability and left-first search simultaneously, the result of parsing is most accurate and the recall is 51.74% and the precision is 87.47% on raw corpus.

Reduction of Unstressed Prevocalic /u/ in English

  • Hwangbo, Young-Shik
    • 영어영문학
    • /
    • 제55권6호
    • /
    • pp.1139-1161
    • /
    • 2009
  • This paper deals with the reduction of unstressed prevocalic /u/ and the appearance of /w/ which are observed in such words as ambiguity [ˌæm bǝ ˈgju: ǝ ti] - ambiguous [æm ˈbɪ gjǝ wǝs]. This phenomenon is recorded in Merriam-Webster Online Dictionary, Webster's Third New International Dictionary, Unabridged, and the draft revisions of Oxford English Dictionary Online. Since this phenomenon has not been studied in detail up to now, this paper aims 1) to collect the data related to the reduction of unstressed prevocalic /u/, 2) to classify them systematically, and 3) to explain the phenomenon in terms of Optimality Theory. In the course of analysis, Prevocalic Lengthening, which is crucial to the preservation of unstressed prevocalic /u/, is reinterpreted as one of the ways to prevent hiatus (annual /æ nju: ǝl/). /w/-insertion is another way to prevent hiatus (annual /æ njǝ wǝl/). In addition it is argued that prevocalic /u/ behaves differently from prevocalic /i/ due to the difference in the articulators involved.

Domain Adaptation Image Classification Based on Multi-sparse Representation

  • Zhang, Xu;Wang, Xiaofeng;Du, Yue;Qin, Xiaoyan
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제11권5호
    • /
    • pp.2590-2606
    • /
    • 2017
  • Generally, research of classical image classification algorithms assume that training data and testing data are derived from the same domain with the same distribution. Unfortunately, in practical applications, this assumption is rarely met. Aiming at the problem, a domain adaption image classification approach based on multi-sparse representation is proposed in this paper. The existences of intermediate domains are hypothesized between the source and target domains. And each intermediate subspace is modeled through online dictionary learning with target data updating. On the one hand, the reconstruction error of the target data is guaranteed, on the other, the transition from the source domain to the target domain is as smooth as possible. An augmented feature representation produced by invariant sparse codes across the source, intermediate and target domain dictionaries is employed for across domain recognition. Experimental results verify the effectiveness of the proposed algorithm.