• 제목/요약/키워드: language data

검색결과 3,790건 처리시간 0.032초

Enhanced Regular Expression as a DGL for Generation of Synthetic Big Data

  • Kai, Cheng;Keisuke, Abe
    • Journal of Information Processing Systems
    • /
    • 제19권1호
    • /
    • pp.1-16
    • /
    • 2023
  • Synthetic data generation is generally used in performance evaluation and function tests in data-intensive applications, as well as in various areas of data analytics, such as privacy-preserving data publishing (PPDP) and statistical disclosure limit/control. A significant amount of research has been conducted on tools and languages for data generation. However, existing tools and languages have been developed for specific purposes and are unsuitable for other domains. In this article, we propose a regular expression-based data generation language (DGL) for flexible big data generation. To achieve a general-purpose and powerful DGL, we enhanced the standard regular expressions to support the data domain, type/format inference, sequence and random generation, probability distributions, and resource reference. To efficiently implement the proposed language, we propose caching techniques for both the intermediate and database queries. We evaluated the proposed improvement experimentally.

XMI기반 클래스의 메타데이터생성 (Generation of Class MetaData Based on XMI)

  • 이상식;최한용
    • 한국콘텐츠학회논문지
    • /
    • 제9권12호
    • /
    • pp.572-581
    • /
    • 2009
  • XMI 메타모델과 XML 메타데이터를 이용한 클래스에 대한 연구는 일반적으로 이용되고 있는 XML 메타데이터의 생성과 상당한 차이점이 있다. 대부분의 XML 시스템은 에디터기능과 데이터베이스 연동, 등 마크업언어의 생성부분에 많은 비중을 두고 개발하고 있다. 그러나 본 연구는 이와 달리 XMI 메타모델에서 추출되는 클래스 메타데이터의 마크업언어를 생성하는데 중점을 두었다. 또한 클래스내의 단위 엘리먼트의 속성부여와 모델내의 클래스 관계를 표현할 수 있도록 하였다. 마크업언어의 생성에서는 XML 스키마를 이용하여 세부적인 데이터타입의 선언이 가능하도록 하고 있다.

보건의료 빅데이터에서의 자연어처리기법 적용방안 연구: 단어임베딩 방법을 중심으로 (A Study on the Application of Natural Language Processing in Health Care Big Data: Focusing on Word Embedding Methods)

  • 김한상;정여진
    • 보건행정학회지
    • /
    • 제30권1호
    • /
    • pp.15-25
    • /
    • 2020
  • While healthcare data sets include extensive information about patients, many researchers have limitations in analyzing them due to their intrinsic characteristics such as heterogeneity, longitudinal irregularity, and noise. In particular, since the majority of medical history information is recorded in text codes, the use of such information has been limited due to the high dimensionality of explanatory variables. To address this problem, recent studies applied word embedding techniques, originally developed for natural language processing, and derived positive results in terms of dimensional reduction and accuracy of the prediction model. This paper reviews the deep learning-based natural language processing techniques (word embedding) and summarizes research cases that have used those techniques in the health care field. Then we finally propose a research framework for applying deep learning-based natural language process in the analysis of domestic health insurance data.

금융권에 적용 가능한 금융특화언어모델 구축방안에 관한 연구 (A Study on the Construction of Financial-Specific Language Model Applicable to the Financial Institutions)

  • 배재권
    • 한국산업정보학회논문지
    • /
    • 제29권3호
    • /
    • pp.79-87
    • /
    • 2024
  • 최근 텍스트분류, 감성분석, 질의응답 등의 자연어 처리를 위해서 사전학습언어모델(Pre-trained Language Model, PLM)의 중요성은 날로 강조되고 있다. 한국어 PLM은 범용적인 도메인의 자연어 처리에서 높은 성능을 보이나 금융, 제조, 법률, 의료 등의 특화된 도메인에서는 성능이 미약하다. 본 연구는 금융도메인 뿐만 아니라 범용도메인에서도 우수한 성능을 보이는 금융특화 언어모델의 구축을 위해 언어모델의 학습과정과 미세조정 방법을 제안하는 것이 주요 목표이다. 금융도메인 특화언어모델을 구축하는 과정은 (1) 금융데이터 수집 및 전처리, (2) PLM 또는 파운데이션 모델 등 모델 아키텍처 선정, (3) 도메인 데이터 학습과 인스트럭션 튜닝, (4) 모델 검증 및 평가, (5) 모델 배포 및 활용 등으로 구성된다. 이를 통해 금융도메인의 특성을 살린 사전학습 데이터 구축방안과 효율적인 LLM 훈련방법인 적응학습과 인스트럭션 튜닝기법을 제안하였다.

Voice Recognition Softwares: Their implications to second language teaching, learning, and research

  • Park, Chong-won
    • 음성과학
    • /
    • 제7권3호
    • /
    • pp.69-85
    • /
    • 2000
  • Recently, Computer Assisted Language Learning (CALL) received widely held attention from diverse audiences. However, to the author's knowledge, relatively little attention was paid to the educational implications of voice recognition (VR) softwares in language teaching in general, and teaching and learning pronunciation in particular. This study explores, and extends the applicability of VR softwares toward second language research areas addressing how VR softwares might facilitate interview data entering processes. To aid the readers' understanding in this field, the background of classroom interaction research, and the rationale of why interview data, therefore the role of VR softwares, becomes critical in this realm of inquiry will be discussed. VR softwares' development and a brief report on the features of up-to-date VR softwares will be sketched. Finally, suggestions for future studies investigating the impact of VR softwares on second language learning, teaching, and research will be offered.

  • PDF

제2언어로서의 한국어 아동 학습자의 초기 문식성 발달 (Early Literacy Development of Child Korean Learners as a Second Language)

  • 최은지
    • 한국어교육
    • /
    • 제25권1호
    • /
    • pp.235-265
    • /
    • 2014
  • This study is for looking into distinguishing features in child KSL learners' early literacy development. For these, the writings, recording data of dialogue, and observational journals of KSL child learners was collected regularly and the data were analysed. As results, KSL child learners showed lots of writing errors due to difficulty in phonological awareness or letter awareness of Korean language. And they seemed to develop the competence of connecting letters and meanings prior to developing the competence of connecting letters and sounds. Three KSL child learners showed great individual differences in development rate, and it is supposed to be mainly caused from differences of literacy development in their mother tongue, or quantity and quality in exposure for Korean language.

유아 언어학습에 대한 하이퍼망 메모리 기반 모델 (Hypernetwork Memory-Based Model for Infant's Language Learning)

  • 이지훈;이은석;장병탁
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권12호
    • /
    • pp.983-987
    • /
    • 2009
  • 유아들의 언어습득에 있어서 중요한 점 하나는 학습자에 대한 언어환경의 노출이다. 유아가 접하는 언어환경은 부모와 같은 인간뿐만 아니라 각종 미디어와 같은 인공적 환경도 포함되며, 유아는 이러한 방대한 언어환경을 탐색하면서 언어를 학습한다. 본 연구는 대용량의 언어 데이터 노출이 영향을 미치는 유아언어학습을 유연하고 적절하게 모사하는 인지적 기제에 따른 기계학습 방식을 제안한다. 유아의 초기 언어학습은 문장수준의 학습과 생성 같은 행동들이 수반되는데, 이는 언어 코퍼스에 대한 노출만으로 모사가 가능하다. 모사의 핵심은 언어 하이퍼망 구조를 가진 기억기반 학습모델이다. 언어 하이퍼망은 언어구성 요소들 간의 상위차원 관계 표상을 가능케 함으로써 새로운 데이터 스트림에 대해 유사구조의 적용과 이용을 도모하여 발달적이고 점진적인 학습을 모사한다. 본 연구에서는 11 개의 유아용 비디오로부터 추출한 문장 32744개를 언어 하이퍼망을 통한 점진적 학습을 수행하여 문장을 생성해 유아의 점진적, 발달적 학습을 모사하였다.

재일 동포의 한국어에 대한 태도와 학습 동기 강도가 한국어 능력에 미치는 영향 (The Influence of Attitudes toward Korean Language and Motivational Intensity on Korean Proficiency of Korean Residents in Japan)

  • 김희상;김효은
    • 한국어교육
    • /
    • 제28권1호
    • /
    • pp.49-78
    • /
    • 2017
  • This study aims to analyze the effect of attitudes of Korean residents in Japan towards learning the Korean language and their motivational intensity on their Korean proficiency. Data for this study came from a survey on language use of Korean residents in Japan which was conducted in 2016, and questionnaire items referred to language attitude, language use and the degree of understanding language; language use; language learning and Korean ethnic identity. The main results are as follows. First, there were significant differences in Korean language proficiency depending on age, education levels and generation. Second, the control for socio-demographic characteristics, the influence of attitudes towards Korean language on Korean proficiency was statistically significant. However, Korean proficiency was not significantly influenced by motivational intensity. Lastly, moderated effects of immigrant generation in the relation between Korean language attitudes and Korean proficiency were significant. Therefore, the effect of Korean language attitudes on Korean proficiency was more influential on second and third generation Korean-Japanese learners than first generation Korean-Japanese learners. Based on these results, this study suggests that in order to promote Korean language education for Korean residents in Japan, it is required to build positive attitudes toward Korean language, and to consider immigrant generation as a major factor.

프라이버시 보호를 위한 오프사이트 튜닝 기반 언어모델 미세 조정 방법론 (Privacy-Preserving Language Model Fine-Tuning Using Offsite Tuning)

  • 정진명;김남규
    • 지능정보연구
    • /
    • 제29권4호
    • /
    • pp.165-184
    • /
    • 2023
  • 최근 구글의 BERT, OpenAI의 GPT 등, 언어모델(Language Model)을 사용한 비정형 텍스트 데이터에 대한 딥러닝(Deep Learning) 분석이 다양한 응용에서 괄목할 성과를 나타내고 있다. 대부분의 언어모델은 사전학습 데이터로부터 범용적인 언어정보를 학습하고, 이후 미세 조정(Fine-Tuning) 과정을 통해 다운스트림 태스크(Downstream Task)에 맞추어 갱신되는 방식으로 사용되고 있다. 하지만 최근 이러한 언어모델을 사용하는 과정에서 프라이버시가 침해될 수 있다는 우려가 제기되고 있다. 즉 데이터 소유자가 언어모델의 미세 조정을 수행하기 위해 다량의 데이터를 모델 소유자에게 제공하는 과정에서 데이터의 프라이버시가 침해될 수 있으며, 반대로 모델 소유자가 모델 전체를 데이터 소유자에게 공개하면 모델의 구조 및 가중치가 공개되어 모델의 프라이버시가 침해될 수 있다는 것이다. 이러한 상황에서 프라이버시를 보호하며 언어모델의 미세 조정을 수행하기 위해 최근 오프사이트 튜닝(Offsite Tuning)의 개념이 제안되었으나, 해당 연구는 제안 방법론을 텍스트 분류 모델에 적용하는 구체적인 방안을 제시하지 못했다는 한계를 갖는다. 이에 본 연구에서는 한글 문서에 대한 다중 분류 미세 조정 수행 시, 모델과 데이터의 프라이버시를 보호하기 위해 분류기를 추가한 오프사이트 튜닝을 적용하는 구체적인 방법을 제시한다. 제안 방법론의 성능을 평가하기 위해 AIHub에서 제공하는 ICT, 전기, 전자, 기계, 그리고 의학 총 5개의 대분야로 구성된 약 20만건의 한글 데이터에 대해 실험을 수행한 결과, 제안하는 플러그인 모델이 제로 샷 모델 및 오프사이트 모델에 비해 분류 정확도 측면에서 우수한 성능을 나타냄을 확인하였다.

화이트헤드의 언어 이해와 상징적 연관 (Language and Symbolic Reference in Whitehead′s Philosophy)

  • 문창옥
    • 인문언어
    • /
    • 제6권
    • /
    • pp.147-166
    • /
    • 2004
  • Whitehead's discussion of language is not to be found in any one book or article. It is interwoven with his discussion of many other questions. He was, however, greatly concerned with the problem of symbolism in general and the uses of language. He regards language, spoken or written, as an instrument devised by men to aid them in their adjustment to the environment in which they live Language is used for many specific purposes in the process of this adjustment. Words are employed not only to refer to data and to express emotions. They may be used also to record experiences, and thoughts about these experiences. Worts also function as instruments in the organization of experiences as they are considered in retrospect. Thus words free us from the bondage of the immediate. And Whitehead's theory of meaning is implicit in his discussion of the functions of language. According to him, the human mind is functioning symbolically when some components of its experience elicit consciousness, beliefs, emotions, and usages, respecting other components of its experiences. The former set of components are the 'symbols', and the latter set constitute the 'meaning' of the symbols. Whitehead points out that one word may have several meanings, i.e. refer to several different data. In order to understand, thus, the meaning to which a word refers, it is sometimes very important to appreciate the system of thought within which a person is operating. Further, Whitehead's discussion of language includes a number of cogent warning the deficiencies of language, and hence the need for great care in the use of words. In fact, language developed gradually. For the most part we have created words designed to deal with practical problems. Attention focuses on the prominent features in a situation, in particular the changing aspects of things. With reference to such data our words are relatively adequate. However, this issues in an unfortunate superficiality. The enduring, the subtle, the complex and the general aspects of the universe do not have adequate verbal representation. for this reason, Whitehead's position concerning the uses of language in speculative philosophy is stated with pungent directness. The uncritical trust in the adequacy of language is one of the main errors to which philosophy is liable. Since ordinary language does not do justice to the generalities, profundities and complexities of life, it is obvious that philosophy requires new words and phrases, or at least the revision of familiar words and phrases. Proceeding to develop the theme Whitehead contends that words and phrases must be stretched towards a generality foreign to their ordinary usage. In the same vein Whitehead refers to the need to realize that language which is the tool of philosophy needs to be redesigned just as in physical science available physical apparatus needs to be redesigned. But even these words and phrases, stretched or redesigned, are never completely adequate in philosophical speculations. They are, in his opinion, merely a great improvement over ordinary language or the language science, mathematics or symbolic logic.

  • PDF