• 제목/요약/키워드: 언어지능

검색결과 784건 처리시간 0.04초

한국어 중심의 토큰-프리 언어 이해-생성 모델 사전학습 연구 (Towards Korean-Centric Token-free Pretrained Language Model)

  • 신종훈;허정;류지희;이기영;서영애;성진;임수종
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.711-715
    • /
    • 2023
  • 본 연구는 대부분의 언어 모델이 사용하고 있는 서브워드 토큰화 과정을 거치지 않고, 바이트 단위의 인코딩을 그대로 다룰 수 있는 토큰-프리 사전학습 언어모델에 대한 것이다. 토큰-프리 언어모델은 명시적인 미등록어 토큰이 존재하지 않고, 전 처리 과정이 단순하며 다양한 언어 및 표현 체계에 대응할 수 있는 장점이 있다. 하지만 관련 연구가 미흡, 서브워드 모델에 대비해 학습이 어렵고 낮은 성능이 보고되어 왔다. 본 연구에서는 한국어를 중심으로 토큰-프리 언어 이해-생성 모델을 사전 학습 후, 서브워드 기반 모델과 비교하여 가능성을 살펴본다. 또한, 토큰 프리 언어모델에서 지적되는 과도한 연산량을 감소시킬 수 있는 그래디언트 기반 서브워드 토크나이저를 적용, 처리 속도를 학습 2.7배, 추론 1.46배 개선하였다.

  • PDF

디지털 개인비서 동향과 미래 (Trends and Future of Digital Personal Assistant)

  • 권오욱;이기영;이요한;노윤형;조민수;황금하;임수종;최승권;김영길
    • 전자통신동향분석
    • /
    • 제36권1호
    • /
    • pp.1-11
    • /
    • 2021
  • In this study, we introduce trends in and the future of digital personal assistants. Recently, digital personal assistants have begun to handle many tasks like humans by communicating with users in human language on smart devices such as smart phones, smart speakers, and smart cars. Their capabilities range from simple voice commands and chitchat to complex tasks such as device control, reservation, ordering, and scheduling. The digital personal assistants of the future will certainly speak like a person, have a person-like personality, see, hear, and analyze situations like a person, and become more human. Dialogue processing technology that makes them more human-like has developed into an end-to-end learning model based on deep neural networks in recent years. In addition, language models pre-trained from a large corpus make dialogue processing more natural and better understood. Advances in artificial intelligence such as dialogue processing technology will enable digital personal assistants to serve with more familiar and better performance in various areas.

인공지능과 언어의 의미 - 비트겐슈타인의 '언어의 의미'를 중심으로 - (Artificial Intelligence and the meaning of language - focusing on the meaning of language in Wittgenstein's philosophy -)

  • 박정식;정창록
    • 철학연구
    • /
    • 제143권
    • /
    • pp.141-164
    • /
    • 2017
  • 현대 인공지능은 인간의 자연언어를 인식하고 사용하기도 한다. 우리는 과연 인공지능의 언어사용을 인간의 것과 같다고 할 수 있을 것인가? 어떤 점에서 차이가 나는 것일까? 그리고 우리는 인공지능의 언어사용을 어떻게 받아들여야 할 것인가? 이러한 문제의식을 바탕으로 본 논문은 비트겐슈타인 철학에 있어 언어의 의미에 비추어 인공지능이 갖는 언어와 의미개념을 비판적으로 고찰하고 있다. 필자들은 본 논문에서 비트겐슈타인 철학을 전기와 후기로 나누어 각 분기 별로 그가 어떻게 자신의 철학에서 언어의 의미를 정립해 나갔는지를 살펴본 후, 인공지능이 발화하는 언어와 그 의미를 어떻게 받아들여야 하는지를 다루고 있다.

창의력과 유동성지능 결정성지능의 관계 -과학고와 일반고 학생들의 TTCT, RAPM, WAIS 검사결과를 중심으로-

  • 조선희;이건호;김희백
    • 한국영재학회:학술대회논문집
    • /
    • 한국영재학회 2003년도 추계학술대회
    • /
    • pp.131-132
    • /
    • 2003
  • 창의력 검사와 지능 검사와의 상관이 높게 나타남에 따라 창의력 검사가 지능 검사와 차별화된 능력을 측정하고 있는 지에 의문이 생겨났다. 본 연구에서는 유동성 지능과 결정성 지능을 측정하고, 이들과 창의력 검사와의 상관 관계를 조사함으로써 두 검사 사이에서 나타나는 상관관계의 원인을 탐색하고자 하였다. 이를 위해 창의력 검사로 널리 이용되는 Torrance Tests of Creative Thinking (TTCT)의 도형과 언어검사, 유동성지능을 측정하는데 대표적으로 이용되는 Raven's Advanced Progressive Matrices (RAPM), 유동성지능과 결정성지능 모두를 측정하는 Wechsler Adult Intelligence Scale (WAIS)을 과학고와 일반고 50명의 학생들을 대상으로 실시하였다. 실험결과 TTCT 도형과 언어 검사 모두 RAPM과의 상관은 유의미하지 않았으나 WAIS와의 상관은 유의미했다. WAIS 지능점수에 따라 학생들을 두 개의 그룹으로 구분했을 때 지능이 높은 그룹에서는 TTCT와 RAPM, WAIS의 상관결과가 모두 유의미하지 않았다. 지능이 낮은 그룹에서는 TTCT와 RAPM과의 상관은 유의미하지 않았으나 TTCT 도형 검사와 WAIS와의 상관은 유의미했다. TTCT와 WAIS 11개 소검사간의 상관 상관을 알아보았다. 분석결과 유동성지능을 잘 대표하는 소검사인 토막짜기, 모양맞추기, 숫자외우기는 TTCT 도형과 언어 검사 모두에서 유의미한 상관을 보이지 않았으며, 결정성지능을 잘 대표하는 소검사인 기본지식문제는 TTCT 도형과 언어 검사 모두에서 유의미한 상관을 보였다. WAIS 11개 소검사를 독립변인으로 하고 TTCT 전체 점수를 종속변인으로 하여 회귀분석을 한 결과 TTCT 도형과 언어 검사 모두 WAIS 소검사중의 기본지식문제가 TTCT 전체점수에 가장 높은 영향력을 미쳤다. 지능이 높은 그룹과 낮은 그룹에 대해 WAIS 11개 소검사와 TTCT 전체점수와의 상관을 구한 결과, 지능이 높은 그룹에서는 유의미한 상관을 의미는 소검사가 거의 없었던 것과는 달리, 지능이 낮은 그룹에서는 결정성지능을 대표하는 소 검사와 TTCT 도형검사 점수간의 상관이 유의미하게 나타났다. 이상의 결과를 통해 TTCT는 도형과 언어 검사 모두 유동성지능 보다는 결정성지능과 상관이 있음을 알 수 있는데, 이는 창의력 검사가 문제 해결 상황에 기존의 지식을 이용하는 능력을 측정하고 있기 때문으로 추정된다. 또한 지능이 낮은 그룹에서 높은 그룹에 비해 창의력 검사와 지능 검사 사이의 상관의 정도가 높았는데, 이는 일정 수준까지는 창의적 능력이 결정성 지능에 의해 제한을 받으나 일정 수준 이상의 결정성 지능을 갖게 되면 더 이상 결정성 지능이 창의적 능력을 제한하지 않기 때문인 것으로 해석된다.

  • PDF

생성형 언어모델을 이용한 관계추출 (Relation Extraction using Generative Language Models)

  • 허정;신종훈;임수종;권오욱
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.707-710
    • /
    • 2023
  • 관계추출은 문장 내 두 개체 간의 의미적 관계를 추론하는 자연어분석 태스크이다. 딥러닝의 발전과 더불어 관계추출은 BERT 계열의 이해형 언어모델을 이용하였다. 그러나, ChatGPT의 혁신적인 등장과 함께, GPT계열의 생성형 언어모델에 대한 연구가 활발해졌다. 본 논문에서는 소규모의 생성형 언어모델(Kebyt5)을 이용하여 관계추출 성능개선을 위한 프롬프트 구성 및 생각의 사슬(CoT) 학습 방법을 제안한다. 실험결과 Kebyt5-large 모델에서 CoT 학습을 수행하였을 경우, Klue-RoBERTa-base 모델보다 3.05%의 성능개선이 있었다.

  • PDF

심층 신경망 기반 대화처리 기술 동향 (Trends in Deep-neural-network-based Dialogue Systems)

  • 권오욱;홍택규;황금하;노윤형;최승권;김화연;김영길;이윤근
    • 전자통신동향분석
    • /
    • 제34권4호
    • /
    • pp.55-64
    • /
    • 2019
  • In this study, we introduce trends in neural-network-based deep learning research applied to dialogue systems. Recently, end-to-end trainable goal-oriented dialogue systems using long short-term memory, sequence-to-sequence models, among others, have been studied to overcome the difficulties of domain adaptation and error recognition and recovery in traditional pipeline goal-oriented dialogue systems. In addition, some research has been conducted on applying reinforcement learning to end-to-end trainable goal-oriented dialogue systems to learn dialogue strategies that do not appear in training corpora. Recent neural network models for end-to-end trainable chit-chat systems have been improved using dialogue context as well as personal and topic information to produce a more natural human conversation. Unlike previous studies that have applied different approaches to goal-oriented dialogue systems and chit-chat systems respectively, recent studies have attempted to apply end-to-end trainable approaches based on deep neural networks in common to them. Acquiring dialogue corpora for training is now necessary. Therefore, future research will focus on easily and cheaply acquiring dialogue corpora and training with small annotated dialogue corpora and/or large raw dialogues.

통합 에이전트 구축 언어를 지원하는 지능형 에이전트 쉘의 개발 (Development of An Intelligent Agent Shell Supporting An Integrated Agent Building Language)

  • 장혜진
    • 한국정보처리학회논문지
    • /
    • 제6권12호
    • /
    • pp.3548-3558
    • /
    • 1999
  • 여러 종류의 기존의 다중 에이전트 프레임웍들(multi-agent frameworks)이 에이전트의 지적인 능력의 표현을 위하여 고수준의 지식 표현 언어를 지원한다. 하지만 그들의 에이전트 프로그래밍 인터페이스는 지식 표현 언어 뿐 아니라 어떤 다른 범용의 프로그래밍 언어들의 사용을 요구한다. 일반적으로 고수준 지식 표현 언어와 범용의 프로그래밍 언어간에는 언어의 수준 및 자료 표현 모델에 있어서 상당한 차이가 있으며, 그런 차이는 지능형 에이전트의 개발에 필요한 요소들의 결합에 관련된 문제점들을 발생시킨다. 본 논문은 그런 문제점들의 극복을 위해 개발한 새로운 유형의 지능형 에이전트 쉘 INAS(INtelligent Agent Shell) 버전 2에 대한 것이다. 지능형 에이전트의 개발을 위하여 고수준의 지식 표현 언어와 범용 프로그래밍 언어를 결합하여 사용해야 하는 기존의 에이전트 프레임웍들과 달리 INAS 버전 2는 그 자체만으로 에이전트들을 구축할 수 있는 고수준의 통합 에이전트 구축 언어를 지원한다. 따라서 INAS 버전 2를 사용한 지능형 에이전트의 개발은 지능형 에이전트의 개발에 필요한 요소들의 결합에 관련된 기존의 에이전트 프레임웍들의 문제점들을 겪지 않는다. 몇 종류의 지능형 에이전트들의 개발을 통하여 INAS 버전 2의 통합 에이전트 구축 언어가 지능형 에이전트들의 개발에 효과적 임을 경험할 수 있었다.

  • PDF

한국어 발화 문장에 대한 비언어 표현 정보를 자동으로 생성하는 모델 (A Model to Automatically Generate Non-verbal Expression Information for Korean Utterance Sentence)

  • 김재윤;장진예;김산;정민영;강현욱;신사임
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.91-94
    • /
    • 2023
  • 자연스러운 상호작용이 가능한 인공지능 에이전트를 개발하기 위해서는 언어적 표현뿐 아니라, 비언어적 표현 또한 고려되어야 한다. 본 논문에서는 한국어 발화문으로부터 비언어적 표현인 모션을 생성하는 연구를 소개한다. 유튜브 영상으로부터 데이터셋을 구축하고, Text to Motion의 기존 모델인 T2M-GPT와 이종 모달리티 데이터를 연계 학습한 VL-KE-T5의 언어 인코더를 활용하여 구현한 모델로 실험을 진행하였다. 실험 결과, 한국어 발화 텍스트에 대해 생성된 모션 표현은 FID 스코어 0.11의 성능으로 나타났으며, 한국어 발화 정보 기반 비언어 표현 정보 생성의 가능성을 보여주었다.

  • PDF

초거대 언어모델과 수학추론 연구 동향 (Research Trends in Large Language Models and Mathematical Reasoning)

  • 권오욱;신종훈;서영애;임수종;허정;이기영
    • 전자통신동향분석
    • /
    • 제38권6호
    • /
    • pp.1-11
    • /
    • 2023
  • Large language models seem promising for handling reasoning problems, but their underlying solving mechanisms remain unclear. Large language models will establish a new paradigm in artificial intelligence and the society as a whole. However, a major challenge of large language models is the massive resources required for training and operation. To address this issue, researchers are actively exploring compact large language models that retain the capabilities of large language models while notably reducing the model size. These research efforts are mainly focused on improving pretraining, instruction tuning, and alignment. On the other hand, chain-of-thought prompting is a technique aimed at enhancing the reasoning ability of large language models. It provides an answer through a series of intermediate reasoning steps when given a problem. By guiding the model through a multistep problem-solving process, chain-of-thought prompting may improve the model reasoning skills. Mathematical reasoning, which is a fundamental aspect of human intelligence, has played a crucial role in advancing large language models toward human-level performance. As a result, mathematical reasoning is being widely explored in the context of large language models. This type of research extends to various domains such as geometry problem solving, tabular mathematical reasoning, visual question answering, and other areas.

KE-T5: 한국어-영어 대용량 텍스트를 활용한 이중언어 사전학습기반 대형 언어모델 구축 (Construction of bilingually pre-trained language model from large-scaled Korean and English corpus)

  • 신사임;김산;서현태
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.419-422
    • /
    • 2021
  • 본 논문은 한국어와 영어 코퍼스 93GB를 활용하여 구축한 대형 사전학습기반 언어모델인 KE-T5를 소개한다. KE-T5는 한국어와 영어 어휘 64,000개를 포함하는 대규모의 언어모델로 다양한 한국어처리와 한국어와 영어를 모두 포함하는 번역 등의 복합언어 태스크에서도 높은 성능을 기대할 수 있다. KE-T5의 활용은 대규모의 언어모델을 기반으로 영어 수준의 복잡한 언어처리 태스크에 대한 연구들을 본격적으로 시작할 수 있는 기반을 마련하였다.

  • PDF