• 제목/요약/키워드: 언어공학

검색결과 3,028건 처리시간 0.025초

한국어-영어 이중언어자의 영어 산출 구조 분석 (English-Production Structures of Korean-English Bilinguals)

  • 신승식;염은영;정찬섭
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1996년도 제8회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.128-141
    • /
    • 1996
  • 한국어-영어 이중언어자와 비이중언어자인 한국 대학생들을 대상으로 두 언어 처리의 독립성과 영어 처리의 사고 억제 과정을 알아보기 위해서 두 개의 산출실험을 실시하였다. 실험 1에서는 한국어와 영어로 산출 과제를 준 후에 한국어, 영어 단어에 대한 어휘 판단 과제를 하였다. 이중언어자는 한국어-영어 처리 체계가 분리되어 있어서 산출 언어와 목표 단어의 언어가 바뀐 경우에 단어 판단시간이 더 길 것으로 예상하였으나 유의미한 결과는 나오지 않았다. 비이중언어자는 영어 산출 후에 한국어, 영어 단어에 대한 판단 시간이 모두 느려졌으며 이것은 영어 산출에 많은 심적 자원을 소모하였기 때문이라고 해석하였다. 실험2에서는 영어로만 1분간 산출 과제를 주고 20초씩 나눈 세 구간에서 발화된 단어 수를 측정하였다. 이중언어자는 세 번째 구간에서 유의미하게 발화된 단어수가 감소하였지만 비이중언어자는 세 구간에서 발화된 단어수가 비슷하였다. 이것을 영어 산출시의 처리 부담과 관련하여 논하였다.

  • PDF

K-SLM Toolkit을 이용한 한국어의 통계적 언어 모델링 비교 (Comparative Analysis of Statistical Language Modeling for Korean using K-SLM Toolkits)

  • 이진석;박재득;이근배
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1999년도 제11회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.426-432
    • /
    • 1999
  • 통계적 언어 모델은 자연어 처리의 다양한 분야에서 시스템의 정확도를 높이고 수행 시간을 줄여줄 수 있는 중요한 지식원이므로 언어 모델의 성능은 자연어 처리 시스템, 특히 음성 인식 시스템의 성능에 직접적인 영향을 준다. 본 논문에서는 한국어를 위한 통계적 언어 모델을 구축하기 위한 다양한 언어 모델 실험을 제시하고 각 언어 모델들 간의 성능 비교를 통하여 통계적 언어 모델의 표준을 제시한다. 또한 형태소 및 어절 단위의 고 빈도 어휘만을 범용 언어 모델에 적용할 때의 적용률을 통하여 언어 모델 구축시 어휘 사전 크기 결정을 위한 기초적 자료를 제시한다. 본 연구는 음성 인식용 통계적 언어 모델의 성능을 판단하는 데 앞으로 큰 도움을 줄 수 있을 것이다.

  • PDF

중간언어 기반의 Word2Vec와 CCA를 이용한 이중언어 사전 추출 (Pivot-based Bilingual Lexicon Extraction Using Word2Vec and CCA)

  • 김정태;김창현;천민아;김재훈;김재환
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2016년도 제28회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.307-309
    • /
    • 2016
  • 이중언어 사전은 자연어처리 분야에서 매우 유용한 자원으로 사용되고 있다. 그러나 초기사전이나 병렬말뭉치 등 자원이 부족한 언어 쌍에 대해서 이중언어 사전을 추출하는 것은 쉽지 않다. 이러한 문제를 해결하기 위해 본 논문에서는 중간 언어 기반으로 Word2Vec와 CCA를 이용하여 이중언어 사전을 추출하는 방법을 제안한다. 본 논문에서 제안하는 방법의 성능을 평가하기 위해서 중간언어로 영어를 사용하여 스페인어-한국어에 대한 이중언어 사전을 추출하는 실험을 하였다. 무작위로 뽑은 200개의 단어에 대한 번역 정확도를 구하였다. 그 결과 최상위에서 37.5%, 상위 10위에서 63%, 그리고 상위 20위에서는 69.5%의 정확도를 얻을 수 있었다.

  • PDF

비정형 요구사항으로부터 원인-결과 그래프 자동 발생을 위한 문장 의미 모델(Sentence Semantic Model) 설계 (Design of Sentence Semantic Model for Cause-Effect Graph Automatic Generation from Natural Language Oriented Informal Requirement Specifications)

  • 장우성;정세준;김영철
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.215-219
    • /
    • 2020
  • 현재 한글 언어학 영역에서는 많은 언어 분석 연구가 수행되었다. 또한 소프트웨어공학의 요구공학 영역에서는 명료한 요구사항 정의와 분석이 필요하고, 비정형화된 요구사항 명세서로부터 테스트 케이스 추출이 매우 중요한 이슈이다. 즉, 자연어 기반의 요구사항 명세서로부터 원인-결과 그래프(Cause-Effect Graph)를 통한 의사 결정 테이블(Decision Table) 기반 테스트케이스(Test Case)를 자동 생성하는 방법이 거의 없다. 이런 문제를 해결하기 위해 '한글 언어 의미 분석 기법'을 '요구공학 영역'에 적용하는 방법이 필요하다. 본 논문은 비정형화된 요구사항으로부터 테스트케이스 생성하는 과정의 중간 단계인 요구사항에서 문장 의미 모델(Sentence Semantic Model)을 자동 생성하는 방법을 제안 한다. 이는 요구사항으로부터 생성된 원인-결과 그래프의 정확성을 검증할 수 있다.

  • PDF

인지체계속의 언어기능 (The Language Faculty in Cognitive System)

  • 문경환
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1989년도 한글날기념 학술대회 발표논문집
    • /
    • pp.61-64
    • /
    • 1989
  • 언어 연구에 관한 방법론은 단위구조적(modular) 접근방법과 총체론적(holistic) 접근방법으로 대별될 수 있다. 전자는 인지체계가 독자적 인지단위로 나뉘어져 있으며 그 중 하나가 언어기능임을 가정하고 있다. 즉 언어는 언어기능과 여타 인지단위로 상호작용함으로써 성립된다고 가정하는 것이다. 이에 비해 후자는 언어가 총체로서의 인지체계의 소산임을 가정하며, 따라서 언어기능이란 존재를 부정한다. 이러한 총체론적 언어이론에서는 신체의 구조가 보이는 단위구 조성과 심적 수조의 총체성 사이의 "불균형"을 어떻게 설명할 것인가의 의문이 제기된다. 이 글에서는 단위 구조설의 내용이 간략히 소개된다. 언어기능을 이루고 있는 보편문법 및 개별문법의 개념이 논의되는 가운데, 과거에도 그랬고 현재에도 계속 논란의 대상이 되고 있는 이른바 "문법성"의 개념이 중점적으로 다루어진다. 문법성과 허용성이 별개의 개념일진대, 문법적이면서도 허용되지 않은 문장이 있을 수 있고, 비문법적이면서도 허용되는 문장도 있을 수 있어야 한다. 이 후자의 경우도 실제로 존재함이 보여질 것이다.

  • PDF

한-중 기계번역 시스템에서의 중간표현에 관한 연구 (A Study on Intermediate Representation for Korean-Chinese Machine Translation System)

  • 송성대;이종혁;이근배
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1994년도 제6회 한글 및 한국어정보처리 학술대회
    • /
    • pp.168-172
    • /
    • 1994
  • 한국어와 중국어는 상이한 언어적 특성을 보이는 언어쌍으로, 기계번역 시스템을 개발하기 위한 접근 방식으로 중간언어 방식이 타당하다. 본 논문에서는 한-중 기계번역 시스템의 개발과 관련하여, 의미표현 구조로서의 중간언어에 대하여 논한다. 기존의 중간언어들을 비교, 분석하여 문제점을 파악하고 개선하며, 한국어의 특성을 반영함으로써 한-중 기계번역 시스템을 위한 중간언어를 제안한다. 본 논문을 통하여 국내적으로 미진한 중간언어 연구를 활성화하며, 더욱 효율적인 중간언어를 설계하기 위한 원형을 마련한다. 앞으로 의미 체계의 보완, 개선 등을 통하여, 본 논문에서 제안된 원형은 다언어 기계번역 시스템을 위한 중간언어로 확장, 개선될 것이다.

  • PDF

자연언어 이해의 전산적 가능성 (Computational Possibility of Natural-Language Understanding)

  • 이초식;이영의
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 1992년도 제4회 한글 및 한국어정보처리 학술대회
    • /
    • pp.637-646
    • /
    • 1992
  • 컴퓨터를 이용하여 자연언어를 처리하려는 연구가 진행되고 있다. 언어가 사고와 밀접한 관계에 있다는 점에서 이러한 연구가 성공한다면 인공지능의 발전과 더불어 인간의 마음에 대한 이해의 폭을 넓히게 될 것이다. 이글은 이러한 연구와 관련하여 컴퓨터에 의한 자연언어 이해의 가능성을 다루고 있다. 먼저 그러한 이해가 불가능하다는 써얼의 비판을 시발로 해서, 써얼에 대한 라파포트의 재반박을 검토할 것이다. 라파포트는 자신의 인공지능 프로그램과 사고실험 등을 통해서 가능성을 인정한다. 그의 주장의 핵심은 컴퓨터가 자연언어를 이해하는데 있어 구문론적 이해만으로도 충분하다는 것이다. 이러한 주장은 기호학적 관점에서 볼 때 성립될 수 없다고 비판된다. 인간이나 컴퓨터가 자연언어를 이해하기 위해서는 언어와 그 지시 대상, 그리고 언어의 사용자간의 관계를 고려하는 기호학적 관점이 요구된다. 그결과 컴퓨터에 의한 자연언어 이해의 가능성에는 한계가 있다는 결론에 이르게 된다.

  • PDF

프로그래밍 교육자를 위한 프로그래밍 언어의 크기 비교 (A Comparison of Programming Language Size for Programming Teacher)

  • 김건우;우균
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2013년도 춘계학술발표대회
    • /
    • pp.1081-1084
    • /
    • 2013
  • 사람들은 모국어가 아닌 다른 언어를 배울 때 대부분 단어, 문법 등에 많은 부담을 느낀다. 그리고 이런 부분이 언어를 습득하는데 흥미를 반감시키고 쉽게 포기하게 하기도 한다. 다른 언어와 마찬가지로 프로그래밍 언어 또한 문법이 복잡하면 배우는 사람이 쉽게 지치기 마련이다. 이 논문에서는 프로그래밍 언어의 어휘적, 구문적 요소를 이용해 몇 가지 프로그래밍 언어의 크기를 비교하고, 어떤 언어가 프로그래밍 언어를 처음 배우는 사람에게 적합한지 보여준다. 그리고 어떤 순서로 프로그래밍 언어를 배우는 것이 효과적인지 프로그래밍 언어의 크기 측면에서 분석한다.

In-Context 검색 증강형 한국어 언어 모델 (In-Context Retrieval-Augmented Korean Language Model)

  • 이성민;이정;서대룡;전동현;강인호;나승훈
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.443-447
    • /
    • 2023
  • 검색 증강형 언어 모델은 입력과 연관된 문서들을 검색하고 텍스트 생성 과정에 통합하여 언어 모델의 생성 능력을 강화한다. 본 논문에서는 사전 학습된 대규모 언어 모델의 추가적인 학습 없이 In-Context 검색 증강으로 한국어 언어 모델의 생성 능력을 강화하고 기존 언어 모델 대비 성능이 증가함을 보인다. 특히 다양한 크기의 사전 학습된 언어 모델을 활용하여 검색 증강 결과를 보여 모든 규모의 사전 학습 모델에서 Perplexity가 크게 개선된 결과를 확인하였다. 또한 오픈 도메인 질의응답(Open-Domain Question Answering) 과업에서도 EM-19, F1-27.8 향상된 결과를 보여 In-Context 검색 증강형 언어 모델의 성능을 입증한다.

  • PDF