• Title/Summary/Keyword: 단어 출현빈도

Search Result 133, Processing Time 0.024 seconds

A Study on the Recognition of Population Problems of Male and Female Students using Text-mining: To Drive the Implications of Population Education (텍스트마이닝기법을 활용한 남녀 학생의 인구문제에 관한 인식 분석: 인구교육의 시사점 도출을 위하여)

  • Wang, Seok-Soon;Shim, Joon-Young
    • Journal of Korean Home Economics Education Association
    • /
    • v.31 no.3
    • /
    • pp.73-90
    • /
    • 2019
  • The purpose of this study was to explore the differences in perceptions of male and female students about population problems and to draw up implications for population education. Using text mining, the report about population problem, which had written by students in population education class, were analysed. After extracting key words, semantic networks were visualized. The results were as follows. First, the high frequency words were the same for each gender. Second, key words based on frequency did not differ depending on gender. And the key words extracted by the correlation analysis and bigram were different. That is, in the semantic network of girls' words, the network of "life"-"marriage"-"birth"-"pregnancy" appeared independently, distinguishing it from male students who showed separate objective links to population problems. Therefore, it drew suggestions that male and female students should be viewed as heterogeneous groups with different cognitive structures on population problems and that the content and methods of population education should be approached differently depending on gender.

A Study of Development for Korean Phonotactic Probability Calculator (한국어 음소결합확률 계산기 개발연구)

  • Lee, Chan-Jong;Lee, Hyun-Bok;Choi, Hun-Young
    • The Journal of the Acoustical Society of Korea
    • /
    • v.28 no.3
    • /
    • pp.239-244
    • /
    • 2009
  • This paper is to develop the Korean Phonotactic Probability Calculator (KPPC) that anticipates the phonotactic probability in Korean. KPPC calculates the positional segment frequecncy, position-specific biphone frequency and position-specific triphone frequency. And KPPC also calculates the Neighborhood Density that is the number of words that sound similar to a target word. The Phonotactic Calculator that was developed in University of Kansas can be analyzed by the computer-readable phonemic transcription. This can calculate positional frequency and position-specific biphone frequency that were derived from 20,000 dictionary words. But KPPC calculates positional frequency, positional biphone frequency, positional triphone frequency and neighborhood density. KPPC can calculate by korean alphabet or computer-readable phonemic transcription. This KPPC can anticipate high phonotactic probability, low phonotactic probability, high neighborhood density and low neighborhood density.

Construction of Concept Network Useful for Effective Information Retrieval (효과적인 정보검색을 위한 개념망의 구축)

  • 주성은;구상회
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.295-297
    • /
    • 2002
  • 본 연구에서는 정보 검색의 효과를 향상시키기 위한 방안으로 개념망을 제안한다. 개념망은 주어진 문서의 집합에서 제시된 주요 개념을 추출하고, 추출된 개념들 사이의 관련성을 분석하여, 관련성이 높은 개념 사이에는 링크를 설정함으로써 개념을 노드로 하는 네트워크를 구성한 것이다. 개념 추출과 링크 설정은 문서에 출현하는 명사의 출현 빈도를 근거로 하였다. 사용자가 정보검색을 위하여 키워드를 입력하면 본 시스템은 입력된 키워드를 중심으로 구축된 개념망을 제시한다. 사용자는 제시된 개념망을 조사함으로써, 자신이 입력한 단어가 검색하고자 하는 목표개념을 적절히 반영한 단어인지 확인할 수 있고, 새로운 검색어를 추가하거나 기존의 것을 수정함으로써 검색의 효과를 향상시킬 수 있다.

  • PDF

Continuous Speech Recognition Using N-gram Language Models Constructed by Iterative Learning (반복학습법에 의해 작성한 N-gram 언어모델을 이용한 연속음성인식에 관한 연구)

  • 오세진;황철준;김범국;정호열;정현열
    • The Journal of the Acoustical Society of Korea
    • /
    • v.19 no.6
    • /
    • pp.62-70
    • /
    • 2000
  • In usual language models(LMs), the probability has been estimated by selecting highly frequent words from a large text side database. However, in case of adopting LMs in a specific task, it is unnecessary to using the general method; constructing it from a large size tent, considering the various kinds of cost. In this paper, we propose a construction method of LMs using a small size text database in order to be used in specific tasks. The proposed method is efficient in increasing the low frequent words by applying same sentences iteratively, for it will robust the occurrence probability of words as well. We carried out continuous speech recognition(CSR) experiments on 200 sentences uttered by 3 speakers using LMs by iterative teaming(IL) in a air flight reservation task. The results indicated that the performance of CSR, using an IL applied LMs, shows an 20.4% increased recognition accuracy compared to those without it. This system, using the IL method, also shows an average of 13.4% higher recognition accuracy than the previous one, which uses context-free grammar(CFG), implying the effectiveness of it.

  • PDF

Learning-based Automatic Keyphrase Indexing from Korean Scientific LIS Articles (자동색인을 위한 학습기반 주요 단어(핵심어) 추출에 관한 연구)

  • Kim, Hea-Jin;Jeoung, Yoo-Kyung
    • Proceedings of the Korean Society for Information Management Conference
    • /
    • 2017.08a
    • /
    • pp.15-18
    • /
    • 2017
  • 학술 데이터베이스를 통해 방대한 양의 텍스트 데이터에 대한 접근이 가능해지면서, 많은 데이터로부터 중요한 정보를 자동으로 추출하는 것에 대한 필요성 또한 증가하였다. 특히, 텍스트 데이터로부터 중요한 단어나 단어구를 선별하여 자동으로 추출하는 기법은 자료의 효과적인 관리와 정보검색 등 다양한 응용분야에 적용될 수 있는 핵심적인 기술임에도, 한글 텍스트를 대상으로 한 연구는 많이 이루어지지 않고 있다. 기존의 한글 텍스트를 대상으로 한 핵심어 또는 핵심어구 추출 연구들은 단어의 빈도나 동시출현 빈도, 이를 변형한 단어 가중치 등에 근거하여 핵심어(구)를 식별하는 수준에 그쳐있다. 이에 본 연구는 한글 학술논문의 초록으로부터 추출한 다양한 자질 요소들을 학습하여 핵심어(구)를 추출하는 모델을 제안하였고 그 성능을 평가하였다.

  • PDF

The Analysis of S&T Policy Changes and Investment Direction of National R&D (과학기술 정책기조 변화 분석과 국가 연구개발 투자방향 연구)

  • Choe, Jong-Il;Kim, Jeong-Eon
    • Journal of Digital Convergence
    • /
    • v.10 no.2
    • /
    • pp.11-23
    • /
    • 2012
  • This study makes an attempt to understand the changes in the National R&D policy by the comparative analysis in terms of R&D policy regime. We characterize the related issues on the National R&D policy, and analyze the direction of science and technology(S&T) policy using the method of scientometrics. The result shows that the policy regime can be categorized into three groups with respect to the R&D efficiency and the keywords; Regime 1: National S&T Innovation 5-year Plan(1999-2002) and National S&T Master plan of the previous adminstration(2003-2007), Regime 2: National S&T Master Plan(2002-2006) and National S&T Master Plan of the previous administration(2003-2007), Regime 3: National S&T Master Plan of the current administration (2008-present).

A Study on Keyword Spotting System Using Pseudo N-gram Language Model (의사 N-gram 언어모델을 이용한 핵심어 검출 시스템에 관한 연구)

  • 이여송;김주곤;정현열
    • The Journal of the Acoustical Society of Korea
    • /
    • v.23 no.3
    • /
    • pp.242-247
    • /
    • 2004
  • Conventional keyword spotting systems use the connected word recognition network consisted by keyword models and filler models in keyword spotting. This is why the system can not construct the language models of word appearance effectively for detecting keywords in large vocabulary continuous speech recognition system with large text data. In this paper to solve this problem, we propose a keyword spotting system using pseudo N-gram language model for detecting key-words and investigate the performance of the system upon the changes of the frequencies of appearances of both keywords and filler models. As the results, when the Unigram probability of keywords and filler models were set to 0.2, 0.8, the experimental results showed that CA (Correctly Accept for In-Vocabulary) and CR (Correctly Reject for Out-Of-Vocabulary) were 91.1% and 91.7% respectively, which means that our proposed system can get 14% of improved average CA-CR performance than conventional methods in ERR (Error Reduction Rate).

Implementation Tagging System of Korea Homonym (한국어 동형이의어 태깅 시스템 구현)

  • Kim, Jun-Su;Choe, Ho-Seop;Lee, Wang-Woo;Ock, Cheol-Young
    • Annual Conference on Human and Language Technology
    • /
    • 2002.10e
    • /
    • pp.24-30
    • /
    • 2002
  • 본 논문은 한국어 정보처리에서 발생하는 단어 중의성 문제를 해결하기 위하여, 사전 뜻풀이 말뭉치에서 추출하여 구축한 의미정보 데이터베이스(Semantic Information Database)와 이를 활용한 단어 중의성 해결 모델을 이용한 실용적인 동형이의어 태깅 시스템 개발을 목적으로 한다. 중 소규모의 국어사전 150,000여 개의 표제어 전체의 뜻풀이에 품사 태그를 부착한 117만 어절 규모의 뜻풀이 말뭉치를 구축한 후 사전에 등재된 14,000여 개의 동형이의어 중 뜻풀이에 나타나는 8,164개의 동형이의어에 표제어 어깨번호를 이용한 의미 태그를 부착함으로써, 대량의 동형이의어 분별을 위한 공기(coocurrence)하는 단어와 빈도(frequency)정보를 추출하여 데이터베이스화 할 수 있었다. 본 동형이의어 태깅 시스템의 정확률 측정과 문제점 발견을 위해 (21세기 세종 계획) 프로젝트에서 제공하는 150만 어절 의미 태그 부착 말뭉치를 대상으로 실험한 결과 세종 150만 의미 태그 부착 말뭉치에 고빈도로 출현하는 469개 어휘(총 출현 횟수 249.249개)에 대한 정확률이 91.58%로 나타났다.

  • PDF

A Study on extraction for Korean-English word pair by using LCS algorithm (LCS알고리즘을 이용한 한-영 대역어 추출 연구)

  • Park, Eun-Jin;Yang, Seong-Il;Kim, Young-Kil
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.707-709
    • /
    • 2007
  • 매일 생성되는 웹 신문에서 독자가 접해보지 못한 단어는 독자의 이해를 돕기 위하여 괄호를 사용한다. 괄호를 사용하여 표기된 웹 신문의 한국어-영어 대역쌍은 특정 기사에는 출현빈도가 낮지만 전체적으로 여러 신문의 기사를 봤을 때, 최소한 한번 이상 출현하게 된다. 즉, 괄호 안의 동일한 영어 용어 두 개 이상의 문장을 최장일치법 알고리즘에 적용하면 한국어 단어 경계를 자동으로 인식할 수 있다. 본 논문에서는 이런 웹 신문의 괄호 표기 특성을 이용하여 한-영 대역어쌍을 추출하는 방법을 제안한다. 웹 신문 기사 43,648 건에서 최대 2,087개의 한-영 대역어를 추출하였다. 3 개의 서로 다른 테스트 그룹으로 실험한 결과 최대 84.2%의 정확도를 보였다.

A Study on the Research Trends in Domestic/International Information Science Articles by Co-word Analysis (동시출현단어 분석을 통한 국내외 정보학 학회지 연구동향 파악)

  • Kim, Ha Jin;Song, Min
    • Journal of the Korean Society for information Management
    • /
    • v.31 no.1
    • /
    • pp.99-118
    • /
    • 2014
  • This paper carried out co-word analysis of noun and noun phrase using text-mining technique in order to grasp the research trends on domestic and international information science articles. It was conducted based on collected titles and articles of the papers published in the Journal of the Korean Society for Information Management (KOSIM) and Journal of American Society for Information Science and Technology (JASIST) from 1990 to 2013. By dividing whole period into five publication window, this paper was organized into the following processes: 1) analysis of high frequency co-word pair to examine the overall trends of both information science articles 2) analysis of each word appearing with high frequency keyword to grasp the detailed subject 3) focused network analysis of trend after 2010 when distinctively new keyword appeared. The result of the analysis shows that KOSIM has considerable portion of studies conducted regarding topics such as library, information service, information user and information organization. Whereas, JASIST has focused on studies regarding information retrieval, information user, web information, and bibliometrics.