• 제목/요약/키워드: 언어적 지능

검색결과 574건 처리시간 0.025초

퍼지 이론을 실생활 적용구현 연구 (A Study on the Embodiment of Fuzzy Logic)

  • 정정민;최성
    • 한국산학기술학회:학술대회논문집
    • /
    • 한국산학기술학회 2002년도 춘계학술발표논문집
    • /
    • pp.243-247
    • /
    • 2002
  • 현재 인간의 지능을 모방하는 인공지능 기법은 인간 친화적인 시스템의 자동화, 제품의 성능 향상 등 공학분야에 적용되기 시작하였고, 병의 진단 및 판정 , 경영의사 결정 등의 사회과학 분야까지 그 응용분야가 확대되고 있다. 이러한 인공지능을 컴퓨터에 의한 언어적 추론의 개념과 방법을 연구하여 추론하는데 사용되는 지식을 언어적으로 표현하는 것을 연구하였고, 인간이 서로간의 지능적이라고 인식하는 대로 행동하도록 컴퓨터가 만들어질 수 있는 가능성을 추구하는 분야 즉 인공지능을 실현하는데, 원론이 되는 퍼지의 이론을 중심으로 연구하였다.

한국어 발화 문장에 대한 비언어 표현 정보를 자동으로 생성하는 모델 (A Model to Automatically Generate Non-verbal Expression Information for Korean Utterance Sentence)

  • 김재윤;장진예;김산;정민영;강현욱;신사임
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.91-94
    • /
    • 2023
  • 자연스러운 상호작용이 가능한 인공지능 에이전트를 개발하기 위해서는 언어적 표현뿐 아니라, 비언어적 표현 또한 고려되어야 한다. 본 논문에서는 한국어 발화문으로부터 비언어적 표현인 모션을 생성하는 연구를 소개한다. 유튜브 영상으로부터 데이터셋을 구축하고, Text to Motion의 기존 모델인 T2M-GPT와 이종 모달리티 데이터를 연계 학습한 VL-KE-T5의 언어 인코더를 활용하여 구현한 모델로 실험을 진행하였다. 실험 결과, 한국어 발화 텍스트에 대해 생성된 모션 표현은 FID 스코어 0.11의 성능으로 나타났으며, 한국어 발화 정보 기반 비언어 표현 정보 생성의 가능성을 보여주었다.

  • PDF

초등학교 5학년 영어 교과서 활동 분석: 다중지능이론을 중심으로 (Investigating Multiple Intelligence Theory in the 5th Grade English Textbook)

  • 윤영지;양재석
    • 문화기술의 융합
    • /
    • 제9권1호
    • /
    • pp.53-59
    • /
    • 2023
  • 우리는 본 연구에서 2015 개정 교육과정 초등학교 영어 교과서를 대상으로 다중지능의 유형을 반영하고 있는지 비교 분석하고자 한다. 분석 대상으로 초등학교 5학년 영어 교과서 중 3종을 선택하여 프로젝트 활동, 게임 활동, 문화 활동을 포함한 3가지 영역에서 다중지능 이론의 각 지능 유형이 어느 정도 반영하고 있는지를 분석하였다. 또한 출판사 별로 다중지능 영역의 반영 정도를 비교 분석하였다. 3종 교과서의 각각 활동 영역에 대한 다중지능 유형의 비중을 분석한 결과, 프로젝트 활동의 경우 언어적 지능, 대인 관계 지능, 공간적 지능을 높은 비중으로 반영하고 있었다. 게임활동은 언어적 지능, 대인 관계 지능, 공간적 지능, 신체 운동적 지능을 높은 비중으로 반영하고 있었다. 문화 활동은 언어적 지능과 공간적 지능이 높은 비중으로 반영하고 있었다. 우리는 본 연구의 결과를 바탕으로 교과서를 개발할 때 언어적, 공간적, 신체 운동적 지능과 같이 일부 지능 유형에 편중된 것 보다는 다양한 유형의 지능이 골고루 포함될 수 있도록 영어 교수 학습의 연구가 필요함을 제시하였다. 뿐만 아니라, 다양한 다중지능 요소를 반영할 수 있는 영어 교수 학습을 개발하여 교과서 활동을 제시할 필요가 있다.

한국어 중심의 토큰-프리 언어 이해-생성 모델 사전학습 연구 (Towards Korean-Centric Token-free Pretrained Language Model)

  • 신종훈;허정;류지희;이기영;서영애;성진;임수종
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.711-715
    • /
    • 2023
  • 본 연구는 대부분의 언어 모델이 사용하고 있는 서브워드 토큰화 과정을 거치지 않고, 바이트 단위의 인코딩을 그대로 다룰 수 있는 토큰-프리 사전학습 언어모델에 대한 것이다. 토큰-프리 언어모델은 명시적인 미등록어 토큰이 존재하지 않고, 전 처리 과정이 단순하며 다양한 언어 및 표현 체계에 대응할 수 있는 장점이 있다. 하지만 관련 연구가 미흡, 서브워드 모델에 대비해 학습이 어렵고 낮은 성능이 보고되어 왔다. 본 연구에서는 한국어를 중심으로 토큰-프리 언어 이해-생성 모델을 사전 학습 후, 서브워드 기반 모델과 비교하여 가능성을 살펴본다. 또한, 토큰 프리 언어모델에서 지적되는 과도한 연산량을 감소시킬 수 있는 그래디언트 기반 서브워드 토크나이저를 적용, 처리 속도를 학습 2.7배, 추론 1.46배 개선하였다.

  • PDF

창의력과 유동성지능 결정성지능의 관계 -과학고와 일반고 학생들의 TTCT, RAPM, WAIS 검사결과를 중심으로-

  • 조선희;이건호;김희백
    • 한국영재학회:학술대회논문집
    • /
    • 한국영재학회 2003년도 추계학술대회
    • /
    • pp.131-132
    • /
    • 2003
  • 창의력 검사와 지능 검사와의 상관이 높게 나타남에 따라 창의력 검사가 지능 검사와 차별화된 능력을 측정하고 있는 지에 의문이 생겨났다. 본 연구에서는 유동성 지능과 결정성 지능을 측정하고, 이들과 창의력 검사와의 상관 관계를 조사함으로써 두 검사 사이에서 나타나는 상관관계의 원인을 탐색하고자 하였다. 이를 위해 창의력 검사로 널리 이용되는 Torrance Tests of Creative Thinking (TTCT)의 도형과 언어검사, 유동성지능을 측정하는데 대표적으로 이용되는 Raven's Advanced Progressive Matrices (RAPM), 유동성지능과 결정성지능 모두를 측정하는 Wechsler Adult Intelligence Scale (WAIS)을 과학고와 일반고 50명의 학생들을 대상으로 실시하였다. 실험결과 TTCT 도형과 언어 검사 모두 RAPM과의 상관은 유의미하지 않았으나 WAIS와의 상관은 유의미했다. WAIS 지능점수에 따라 학생들을 두 개의 그룹으로 구분했을 때 지능이 높은 그룹에서는 TTCT와 RAPM, WAIS의 상관결과가 모두 유의미하지 않았다. 지능이 낮은 그룹에서는 TTCT와 RAPM과의 상관은 유의미하지 않았으나 TTCT 도형 검사와 WAIS와의 상관은 유의미했다. TTCT와 WAIS 11개 소검사간의 상관 상관을 알아보았다. 분석결과 유동성지능을 잘 대표하는 소검사인 토막짜기, 모양맞추기, 숫자외우기는 TTCT 도형과 언어 검사 모두에서 유의미한 상관을 보이지 않았으며, 결정성지능을 잘 대표하는 소검사인 기본지식문제는 TTCT 도형과 언어 검사 모두에서 유의미한 상관을 보였다. WAIS 11개 소검사를 독립변인으로 하고 TTCT 전체 점수를 종속변인으로 하여 회귀분석을 한 결과 TTCT 도형과 언어 검사 모두 WAIS 소검사중의 기본지식문제가 TTCT 전체점수에 가장 높은 영향력을 미쳤다. 지능이 높은 그룹과 낮은 그룹에 대해 WAIS 11개 소검사와 TTCT 전체점수와의 상관을 구한 결과, 지능이 높은 그룹에서는 유의미한 상관을 의미는 소검사가 거의 없었던 것과는 달리, 지능이 낮은 그룹에서는 결정성지능을 대표하는 소 검사와 TTCT 도형검사 점수간의 상관이 유의미하게 나타났다. 이상의 결과를 통해 TTCT는 도형과 언어 검사 모두 유동성지능 보다는 결정성지능과 상관이 있음을 알 수 있는데, 이는 창의력 검사가 문제 해결 상황에 기존의 지식을 이용하는 능력을 측정하고 있기 때문으로 추정된다. 또한 지능이 낮은 그룹에서 높은 그룹에 비해 창의력 검사와 지능 검사 사이의 상관의 정도가 높았는데, 이는 일정 수준까지는 창의적 능력이 결정성 지능에 의해 제한을 받으나 일정 수준 이상의 결정성 지능을 갖게 되면 더 이상 결정성 지능이 창의적 능력을 제한하지 않기 때문인 것으로 해석된다.

  • PDF

생성형 언어모델을 이용한 관계추출 (Relation Extraction using Generative Language Models)

  • 허정;신종훈;임수종;권오욱
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.707-710
    • /
    • 2023
  • 관계추출은 문장 내 두 개체 간의 의미적 관계를 추론하는 자연어분석 태스크이다. 딥러닝의 발전과 더불어 관계추출은 BERT 계열의 이해형 언어모델을 이용하였다. 그러나, ChatGPT의 혁신적인 등장과 함께, GPT계열의 생성형 언어모델에 대한 연구가 활발해졌다. 본 논문에서는 소규모의 생성형 언어모델(Kebyt5)을 이용하여 관계추출 성능개선을 위한 프롬프트 구성 및 생각의 사슬(CoT) 학습 방법을 제안한다. 실험결과 Kebyt5-large 모델에서 CoT 학습을 수행하였을 경우, Klue-RoBERTa-base 모델보다 3.05%의 성능개선이 있었다.

  • PDF

사용자 감정 인식과 공감적 대화 생성: ChatGPT와 소형 언어 모델 비교 (Empathetic Dialogue Generation based on User Emotion Recognition: A Comparison between ChatGPT and SLM)

  • 허승훈;이정민;조민수;권오욱;황금하
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2024년도 춘계학술발표대회
    • /
    • pp.570-573
    • /
    • 2024
  • 본 연구는 대형 언어 모델 (LLM) 시대에 공감적 대화 생성을 위한 감정 인식의 필요성을 확인하고 소형 언어 모델 (SLM)을 통한 미세 조정 학습이 고비용 LLM, 특히 ChatGPT의 대안이 될 수 있는지를 탐구한다. 이를 위해 KoBERT 미세 조정 모델과 ChatGPT를 사용하여 사용자 감정을 인식하고, Polyglot-Ko 미세 조정 모델 및 ChatGPT를 활용하여 공감적 응답을 생성하는 비교 실험을 진행하였다. 실험 결과, KoBERT 기반의 감정 분류기는 ChatGPT의 zero-shot 접근 방식보다 뛰어난 성능을 보였으며, 정확한 감정 분류가 공감적 대화의 질을 개선하는 데 기여함을 확인하였다. 이는 공감적 대화 생성을 위해 감정 인식이 여전히 필요하며, SLM의 미세 조정이 고비용 LLM의 실용적 대체 수단이 될 수 있음을 시사한다.

인공지능과 언어의 의미 - 비트겐슈타인의 '언어의 의미'를 중심으로 - (Artificial Intelligence and the meaning of language - focusing on the meaning of language in Wittgenstein's philosophy -)

  • 박정식;정창록
    • 철학연구
    • /
    • 제143권
    • /
    • pp.141-164
    • /
    • 2017
  • 현대 인공지능은 인간의 자연언어를 인식하고 사용하기도 한다. 우리는 과연 인공지능의 언어사용을 인간의 것과 같다고 할 수 있을 것인가? 어떤 점에서 차이가 나는 것일까? 그리고 우리는 인공지능의 언어사용을 어떻게 받아들여야 할 것인가? 이러한 문제의식을 바탕으로 본 논문은 비트겐슈타인 철학에 있어 언어의 의미에 비추어 인공지능이 갖는 언어와 의미개념을 비판적으로 고찰하고 있다. 필자들은 본 논문에서 비트겐슈타인 철학을 전기와 후기로 나누어 각 분기 별로 그가 어떻게 자신의 철학에서 언어의 의미를 정립해 나갔는지를 살펴본 후, 인공지능이 발화하는 언어와 그 의미를 어떻게 받아들여야 하는지를 다루고 있다.

다국어 정보 검색을 위한 적대적 언어 적응을 활용한 ColBERT (ColBERT with Adversarial Language Adaptation for Multilingual Information Retrieval)

  • 김종휘;김윤수;이근배
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.239-244
    • /
    • 2023
  • 신경망 기반의 다국어 및 교차 언어 정보 검색 모델은 타겟 언어로 된 학습 데이터가 필요하지만, 이는 고자원 언어에 치중되어있다. 본 논문에서는 이를 해결하기 위해 영어 학습 데이터와 한국어-영어 병렬 말뭉치만을 이용한 효과적인 다국어 정보 검색 모델 학습 방법을 제안한다. 언어 예측 태스크와 경사 반전 계층을 활용하여 인코더가 언어에 구애 받지 않는 벡터 표현을 생성하도록 학습 방법을 고안하였고, 이를 한국어가 포함된 다국어 정보 검색 벤치마크에 대해 실험하였다. 본 실험 결과 제안 방법이 다국어 사전학습 모델과 영어 데이터만을 이용한 베이스라인보다 높은 성능을 보임을 실험적으로 확인하였다. 또한 교차 언어 정보 검색 실험을 통해 현재 검색 모델이 언어 편향성을 가지고 있으며, 성능에 직접적인 영향을 미치는 것을 보였다.

  • PDF

KorBERT 기반 빈칸채우기 문제를 이용한 텍스트 분류 (Text Classification using Cloze Question based on KorBERT)

  • 허정;이형직;임준호
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.486-489
    • /
    • 2021
  • 본 논문에서는 KorBERT 한국어 언어모델에 기반하여 텍스트 분류문제를 빈칸채우기 문제로 변환하고 빈칸에 적합한 어휘를 예측하는 방식의 프롬프트기반 분류모델에 대해서 소개한다. [CLS] 토큰을 이용한 헤드기반 분류와 프롬프트기반 분류는 사전학습의 NSP모델과 MLM모델의 특성을 반영한 것으로, 텍스트의 의미/구조적 분석과 의미적 추론으로 구분되는 텍스트 분류 태스크에서의 성능을 비교 평가하였다. 의미/구조적 분석 실험을 위해 KLUE의 의미유사도와 토픽분류 데이터셋을 이용하였고, 의미적 추론 실험을 위해서 KLUE의 자연어추론 데이터셋을 이용하였다. 실험을 통해, MLM모델의 특성을 반영한 프롬프트기반 텍스트 분류에서는 의미유사도와 토픽분류 태스크에서 우수한 성능을 보였고, NSP모델의 특성을 반영한 헤드기반 텍스트 분류에서는 자연어추론 태스크에서 우수한 성능을 보였다.

  • PDF