• Title/Summary/Keyword: 언어지능

Search Result 784, Processing Time 0.031 seconds

Towards Korean-Centric Token-free Pretrained Language Model (한국어 중심의 토큰-프리 언어 이해-생성 모델 사전학습 연구)

  • Jong-Hun Shin;Jeong Heo;Ji-Hee Ryu;Ki-Young Lee;Young-Ae Seo;Jin Seong;Soo-Jong Lim
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.711-715
    • /
    • 2023
  • 본 연구는 대부분의 언어 모델이 사용하고 있는 서브워드 토큰화 과정을 거치지 않고, 바이트 단위의 인코딩을 그대로 다룰 수 있는 토큰-프리 사전학습 언어모델에 대한 것이다. 토큰-프리 언어모델은 명시적인 미등록어 토큰이 존재하지 않고, 전 처리 과정이 단순하며 다양한 언어 및 표현 체계에 대응할 수 있는 장점이 있다. 하지만 관련 연구가 미흡, 서브워드 모델에 대비해 학습이 어렵고 낮은 성능이 보고되어 왔다. 본 연구에서는 한국어를 중심으로 토큰-프리 언어 이해-생성 모델을 사전 학습 후, 서브워드 기반 모델과 비교하여 가능성을 살펴본다. 또한, 토큰 프리 언어모델에서 지적되는 과도한 연산량을 감소시킬 수 있는 그래디언트 기반 서브워드 토크나이저를 적용, 처리 속도를 학습 2.7배, 추론 1.46배 개선하였다.

  • PDF

Trends and Future of Digital Personal Assistant (디지털 개인비서 동향과 미래)

  • Kwon, O.W.;Lee, K.Y.;Lee, Y.H.;Roh, Y.H.;Cho, M.S.;Huang, J.X.;Lim, S.J.;Choi, S.K.;Kim, Y.K.
    • Electronics and Telecommunications Trends
    • /
    • v.36 no.1
    • /
    • pp.1-11
    • /
    • 2021
  • In this study, we introduce trends in and the future of digital personal assistants. Recently, digital personal assistants have begun to handle many tasks like humans by communicating with users in human language on smart devices such as smart phones, smart speakers, and smart cars. Their capabilities range from simple voice commands and chitchat to complex tasks such as device control, reservation, ordering, and scheduling. The digital personal assistants of the future will certainly speak like a person, have a person-like personality, see, hear, and analyze situations like a person, and become more human. Dialogue processing technology that makes them more human-like has developed into an end-to-end learning model based on deep neural networks in recent years. In addition, language models pre-trained from a large corpus make dialogue processing more natural and better understood. Advances in artificial intelligence such as dialogue processing technology will enable digital personal assistants to serve with more familiar and better performance in various areas.

Artificial Intelligence and the meaning of language - focusing on the meaning of language in Wittgenstein's philosophy - (인공지능과 언어의 의미 - 비트겐슈타인의 '언어의 의미'를 중심으로 -)

  • Park, Jeong-sik;Jeong, Chang-rok
    • Journal of Korean Philosophical Society
    • /
    • v.143
    • /
    • pp.141-164
    • /
    • 2017
  • Artificial intelligence may be said like a human being. What is different thing between artificial intelligence and human intelligence? The people think that the artificial intelligence understands the meaning of the word to see artificial intelligence saying. However, it is different that artificial intelligence is identified as understanding a human being. We apply Wittgenstein's philosophy to this problem whether the artificial intelligence understands a meaning of language. We think that the artificial intelligence does not understand a live meaning of human life.

창의력과 유동성지능 결정성지능의 관계 -과학고와 일반고 학생들의 TTCT, RAPM, WAIS 검사결과를 중심으로-

  • 조선희;이건호;김희백
    • Proceedings of the Korean Society for the Gifted Conference
    • /
    • 2003.11a
    • /
    • pp.131-132
    • /
    • 2003
  • 창의력 검사와 지능 검사와의 상관이 높게 나타남에 따라 창의력 검사가 지능 검사와 차별화된 능력을 측정하고 있는 지에 의문이 생겨났다. 본 연구에서는 유동성 지능과 결정성 지능을 측정하고, 이들과 창의력 검사와의 상관 관계를 조사함으로써 두 검사 사이에서 나타나는 상관관계의 원인을 탐색하고자 하였다. 이를 위해 창의력 검사로 널리 이용되는 Torrance Tests of Creative Thinking (TTCT)의 도형과 언어검사, 유동성지능을 측정하는데 대표적으로 이용되는 Raven's Advanced Progressive Matrices (RAPM), 유동성지능과 결정성지능 모두를 측정하는 Wechsler Adult Intelligence Scale (WAIS)을 과학고와 일반고 50명의 학생들을 대상으로 실시하였다. 실험결과 TTCT 도형과 언어 검사 모두 RAPM과의 상관은 유의미하지 않았으나 WAIS와의 상관은 유의미했다. WAIS 지능점수에 따라 학생들을 두 개의 그룹으로 구분했을 때 지능이 높은 그룹에서는 TTCT와 RAPM, WAIS의 상관결과가 모두 유의미하지 않았다. 지능이 낮은 그룹에서는 TTCT와 RAPM과의 상관은 유의미하지 않았으나 TTCT 도형 검사와 WAIS와의 상관은 유의미했다. TTCT와 WAIS 11개 소검사간의 상관 상관을 알아보았다. 분석결과 유동성지능을 잘 대표하는 소검사인 토막짜기, 모양맞추기, 숫자외우기는 TTCT 도형과 언어 검사 모두에서 유의미한 상관을 보이지 않았으며, 결정성지능을 잘 대표하는 소검사인 기본지식문제는 TTCT 도형과 언어 검사 모두에서 유의미한 상관을 보였다. WAIS 11개 소검사를 독립변인으로 하고 TTCT 전체 점수를 종속변인으로 하여 회귀분석을 한 결과 TTCT 도형과 언어 검사 모두 WAIS 소검사중의 기본지식문제가 TTCT 전체점수에 가장 높은 영향력을 미쳤다. 지능이 높은 그룹과 낮은 그룹에 대해 WAIS 11개 소검사와 TTCT 전체점수와의 상관을 구한 결과, 지능이 높은 그룹에서는 유의미한 상관을 의미는 소검사가 거의 없었던 것과는 달리, 지능이 낮은 그룹에서는 결정성지능을 대표하는 소 검사와 TTCT 도형검사 점수간의 상관이 유의미하게 나타났다. 이상의 결과를 통해 TTCT는 도형과 언어 검사 모두 유동성지능 보다는 결정성지능과 상관이 있음을 알 수 있는데, 이는 창의력 검사가 문제 해결 상황에 기존의 지식을 이용하는 능력을 측정하고 있기 때문으로 추정된다. 또한 지능이 낮은 그룹에서 높은 그룹에 비해 창의력 검사와 지능 검사 사이의 상관의 정도가 높았는데, 이는 일정 수준까지는 창의적 능력이 결정성 지능에 의해 제한을 받으나 일정 수준 이상의 결정성 지능을 갖게 되면 더 이상 결정성 지능이 창의적 능력을 제한하지 않기 때문인 것으로 해석된다.

  • PDF

Relation Extraction using Generative Language Models (생성형 언어모델을 이용한 관계추출)

  • Jeong Heo;Jong-Hun Shin;Soo-Jong Lim;Oh-Woog Kwon
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.707-710
    • /
    • 2023
  • 관계추출은 문장 내 두 개체 간의 의미적 관계를 추론하는 자연어분석 태스크이다. 딥러닝의 발전과 더불어 관계추출은 BERT 계열의 이해형 언어모델을 이용하였다. 그러나, ChatGPT의 혁신적인 등장과 함께, GPT계열의 생성형 언어모델에 대한 연구가 활발해졌다. 본 논문에서는 소규모의 생성형 언어모델(Kebyt5)을 이용하여 관계추출 성능개선을 위한 프롬프트 구성 및 생각의 사슬(CoT) 학습 방법을 제안한다. 실험결과 Kebyt5-large 모델에서 CoT 학습을 수행하였을 경우, Klue-RoBERTa-base 모델보다 3.05%의 성능개선이 있었다.

  • PDF

Trends in Deep-neural-network-based Dialogue Systems (심층 신경망 기반 대화처리 기술 동향)

  • Kwon, O.W.;Hong, T.G.;Huang, J.X.;Roh, Y.H.;Choi, S.K.;Kim, H.Y.;Kim, Y.K.;Lee, Y.K.
    • Electronics and Telecommunications Trends
    • /
    • v.34 no.4
    • /
    • pp.55-64
    • /
    • 2019
  • In this study, we introduce trends in neural-network-based deep learning research applied to dialogue systems. Recently, end-to-end trainable goal-oriented dialogue systems using long short-term memory, sequence-to-sequence models, among others, have been studied to overcome the difficulties of domain adaptation and error recognition and recovery in traditional pipeline goal-oriented dialogue systems. In addition, some research has been conducted on applying reinforcement learning to end-to-end trainable goal-oriented dialogue systems to learn dialogue strategies that do not appear in training corpora. Recent neural network models for end-to-end trainable chit-chat systems have been improved using dialogue context as well as personal and topic information to produce a more natural human conversation. Unlike previous studies that have applied different approaches to goal-oriented dialogue systems and chit-chat systems respectively, recent studies have attempted to apply end-to-end trainable approaches based on deep neural networks in common to them. Acquiring dialogue corpora for training is now necessary. Therefore, future research will focus on easily and cheaply acquiring dialogue corpora and training with small annotated dialogue corpora and/or large raw dialogues.

Development of An Intelligent Agent Shell Supporting An Integrated Agent Building Language (통합 에이전트 구축 언어를 지원하는 지능형 에이전트 쉘의 개발)

  • Chang, Hai-Jin
    • The Transactions of the Korea Information Processing Society
    • /
    • v.6 no.12
    • /
    • pp.3548-3558
    • /
    • 1999
  • There are many kinds of multi-agent frameworks which support the high-level knowledge representation languages for providing intelligence to their agents. But, the agent programming interfaces of the frameworks require to use some general-purpose programming languages as well as tile knowledge representation languages. In general, knowledge representation languages and general-purpose programming languages are different in their levels and data representation models. The differences can make the problems about tile coupling of the elements which are necessary for developing intelligent agents. This paper describes a new type of intelligent agent shell INAS(INtelligent Agent Shell) version 2 which has developed to cope with the problems. Unlike the previous agent frameworks, INAS supports a high-level integrated agent building language for building intelligent agents by itself. Therefore, the development of intelligent agents by using INAS version 2 does not suffer from the problems of the previous agent frameworks. Through the development of several intelligent agents, we experienced that the agent building language of INAS version 2 could reduce the difficulties of developing intelligent agents.

  • PDF

A Model to Automatically Generate Non-verbal Expression Information for Korean Utterance Sentence (한국어 발화 문장에 대한 비언어 표현 정보를 자동으로 생성하는 모델)

  • Jaeyoon Kim;Jinyea Jang;San Kim;Minyoung Jung;Hyunwook Kang;Saim Shin
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.91-94
    • /
    • 2023
  • 자연스러운 상호작용이 가능한 인공지능 에이전트를 개발하기 위해서는 언어적 표현뿐 아니라, 비언어적 표현 또한 고려되어야 한다. 본 논문에서는 한국어 발화문으로부터 비언어적 표현인 모션을 생성하는 연구를 소개한다. 유튜브 영상으로부터 데이터셋을 구축하고, Text to Motion의 기존 모델인 T2M-GPT와 이종 모달리티 데이터를 연계 학습한 VL-KE-T5의 언어 인코더를 활용하여 구현한 모델로 실험을 진행하였다. 실험 결과, 한국어 발화 텍스트에 대해 생성된 모션 표현은 FID 스코어 0.11의 성능으로 나타났으며, 한국어 발화 정보 기반 비언어 표현 정보 생성의 가능성을 보여주었다.

  • PDF

Research Trends in Large Language Models and Mathematical Reasoning (초거대 언어모델과 수학추론 연구 동향)

  • O.W. Kwon;J.H. Shin;Y.A. Seo;S.J. Lim;J. Heo;K.Y. Lee
    • Electronics and Telecommunications Trends
    • /
    • v.38 no.6
    • /
    • pp.1-11
    • /
    • 2023
  • Large language models seem promising for handling reasoning problems, but their underlying solving mechanisms remain unclear. Large language models will establish a new paradigm in artificial intelligence and the society as a whole. However, a major challenge of large language models is the massive resources required for training and operation. To address this issue, researchers are actively exploring compact large language models that retain the capabilities of large language models while notably reducing the model size. These research efforts are mainly focused on improving pretraining, instruction tuning, and alignment. On the other hand, chain-of-thought prompting is a technique aimed at enhancing the reasoning ability of large language models. It provides an answer through a series of intermediate reasoning steps when given a problem. By guiding the model through a multistep problem-solving process, chain-of-thought prompting may improve the model reasoning skills. Mathematical reasoning, which is a fundamental aspect of human intelligence, has played a crucial role in advancing large language models toward human-level performance. As a result, mathematical reasoning is being widely explored in the context of large language models. This type of research extends to various domains such as geometry problem solving, tabular mathematical reasoning, visual question answering, and other areas.

Construction of bilingually pre-trained language model from large-scaled Korean and English corpus (KE-T5: 한국어-영어 대용량 텍스트를 활용한 이중언어 사전학습기반 대형 언어모델 구축)

  • Shin, Saim;Kim, San;Seo, Hyeon-Tae
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.419-422
    • /
    • 2021
  • 본 논문은 한국어와 영어 코퍼스 93GB를 활용하여 구축한 대형 사전학습기반 언어모델인 KE-T5를 소개한다. KE-T5는 한국어와 영어 어휘 64,000개를 포함하는 대규모의 언어모델로 다양한 한국어처리와 한국어와 영어를 모두 포함하는 번역 등의 복합언어 태스크에서도 높은 성능을 기대할 수 있다. KE-T5의 활용은 대규모의 언어모델을 기반으로 영어 수준의 복잡한 언어처리 태스크에 대한 연구들을 본격적으로 시작할 수 있는 기반을 마련하였다.

  • PDF