• 제목/요약/키워드: Korean sentence generation

검색결과 81건 처리시간 0.029초

홈쇼핑 사이트를 위한 데이터베이스로부터의 한국어 텍스트 생성 (Korean Text Generation from Relational Database for Homeshopping Sites)

  • 노지은;강신재;이종혁
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 봄 학술발표논문집 Vol.28 No.1 (B)
    • /
    • pp.373-375
    • /
    • 2001
  • 국내에서는 한국어 생성에 있어서 기계 번역에 기반한 자연스러운 한국어 문장(sentence)의 생성에 관한 연구가 주로 이루어졌었다. 반면에 다양한 지식원으로부터 여러 문장이 긴밀히 결합되어 하나의 텍스트를 생성하는 텍스트 생성에 관한 연구는 거의 이루어지지 않았었다. 문장 단위의 기계 번역에서의 한국어 생성과는 또 다른 다양한 논점을 가지고있는 텍스트 생성에 관해, 본 논문에서는 테이터베이스를 지식원으로 하여 하나의 일관된 정보를 전달하는 단락 단위의 자연스러운 한국어 텍스트를 생성하는 시스템을 제안한다.

  • PDF

기술 용어에 대한 한국어 정의 문장 자동 생성을 위한 순환 신경망 모델 활용 연구 (Research on the Utilization of Recurrent Neural Networks for Automatic Generation of Korean Definitional Sentences of Technical Terms)

  • 최가람;김한국;김광훈;김유일;최성필
    • 한국문헌정보학회지
    • /
    • 제51권4호
    • /
    • pp.99-120
    • /
    • 2017
  • 본 논문에서는 지속적으로 커져가는 산업 시장에 대해 관련 연구자들이 이를 효율적으로 분석할 수 있는 반자동 지원 체제개발을 위한 기술 용어와 기술 개념에 대한 정의문 및 설명문을 자동으로 생성하는 한국어 문장 생성 모델을 제시한다. 한국어 정의 문장 생성을 위하여 딥러닝 기술 중 데이터의 전/후 관계를 포함한 시퀀스 레이블링이 가능한 LSTM을 활용한다. LSTM을 근간으로 한 두 가지 모델은 기술명을 입력할 시 그에 대한 정의문 및 설명문을 생성한다. 다양하게 수집된 대규모 학습 말뭉치를 이용해 실험한 결과, 본 논문에서 구현한 2가지 모델 중 CNN 음절 임베딩을 활용한 어절 단위 LSTM 모델이 용어에 대한 정의문 및 설명문을 생성하는데 더 나은 결과를 도출시킨다는 사실을 확인하였다. 본 논문의 연구 결과를 바탕으로 동일한 주제를 다루는 문장 집합을 생성할 수 있는 확장 모델을 개발할 수 있으며 더 나아가서는 기술에 대한 문헌을 자동으로 작성하는 인공지능 모델을 구현할 수 있으리라 사료된다.

일한 번역시스템을 위한 한국어 생성기 설계 (A Design of Korean Generator for Japanese to Korean Translation System)

  • 강석훈;최병욱
    • 전자공학회논문지B
    • /
    • 제31B권12호
    • /
    • pp.91-99
    • /
    • 1994
  • This paper proposes the Korean generator which is used in a Japanese to Korean translation system. The established Korean generator for japanese to Korean translation uses the entire sentence structure to generate Korean, or directly translates each morpheme. But in this paper, the generator generates Korean, based on a short clause. Japanese and Korean have similarities in short clauses, including the word order. But in the Korean generation, they also have many differences within short clauses. The analysed features in Japanese and Korean are in the wrong order. Therefore the Korean generator which takes it into consideration is needed. We propose a annotational algorithm for the Korean generation and apply it to the translation of postpositions, declinable words and auxiliary verbs. We also consider Korean phonological phenomenon that can't be extracted from the analyed Japanese informations. In the end, we can translate the Japanese conjugation that can't be easily dealt in the procedural method.

  • PDF

인공지능 기반 한국어 시 생성 시스템 개발 연구 (A Study on Korean Poetry Generation System Based on Artificial Intelligence)

  • 김명선;정우혁;우지환
    • 경영정보학연구
    • /
    • 제25권3호
    • /
    • pp.43-57
    • /
    • 2023
  • 본 연구에서는 한국어 기반의 시를 창작하는 데 도움이 되는 문장들을 생성하는 인공지능을 개발하였다. 인공지능이 인간의 고유의 영역이라고 할 수 있는 창작에 대한 욕망과 창의력을 대신하는 것이 아니라, 인간이 창의력을 효율적으로 사용할 수 있도록, 창작에 밑바탕이 되는 문장들을 생성하는데 초점을 맞추었다. 시인들과의 인터뷰를 통해서 8개의 다른 데이터 세트로부터 문장을 학습하여 8가지 장르의 시가 생성될 수 있도록 만들었다. 이 연구는 한국어를 활용한 문학 작품 생성 기술을 개발하였다는 점에서 차별성이 있으며, 이 연구를 확장해서 수필과 산문 또는 소설과 같은 다양한 형태의 문학 작품을 창작하는 데 도움이 될 수 있다는 점에서 큰 의미가 있다.

한국어 문장 생성을 위한 Variational Recurrent Auto-Encoder 개선 및 활용 (Application of Improved Variational Recurrent Auto-Encoder for Korean Sentence Generation)

  • 한상철;홍석진;최희열
    • 정보과학회 논문지
    • /
    • 제45권2호
    • /
    • pp.157-164
    • /
    • 2018
  • 딥러닝의 급속한 발전은 패턴인식 분야의 성능을 혁신했으며 몇몇 문제에서는 인간 수준을 넘어서는 결과들을 보여주고 있다. 데이타를 분류하는 패턴인식과 달리 본 논문에서는 주어진 몇개의 한국어 문장으로부터 비슷한 문장들을 생성하는 문제를 다룬다. 이를위해 생성모델 중의 하나인 Variational Auto-Encoder 기반의 모델을 한국어 생성에 맞게 개선하고 적용하는 방법들을 논의한다. 첫째, 교착어인 한국어의 특성상 띄어쓰기를 기준으로 단어 생성시 단어의 개수가 너무 많아 이를 줄이기 위해 조사 및 어미들을 분리할 필요가 있다. 둘째, 한국어는 어순이 비교적 자유롭고 주어 목적어 등이 생략되는 경우가 많아 기존의 단방향 인코더를 양방향으로 확장한다. 마지막으로, 주어진 문장들을 기반으로 비슷하지만 새로운 문장들을 생성하기 위해 기존 문장들의 인코딩된 벡터표현들로부터 새로운 벡터를 찾아내고, 이 벡터를 디코딩하여 문장을 생성한다. 실험 결과를 통해 제안한 방법의 성능을 확인한다.

한국어 텍스트 문장정렬을 위한 개체격자 접근법과 LSA 기반 접근법의 활용연구 (A comparative study of Entity-Grid and LSA models on Korean sentence ordering)

  • 김영삼;김홍기;신효필
    • 인지과학
    • /
    • 제24권4호
    • /
    • pp.301-321
    • /
    • 2013
  • 본 논문은 텍스트의 응집도 측정과 텍스트 자동생성 시스템을 위한 기초기술 중 하나인 문장정렬 과제에 대한 연구로, 개체기반적(entity-based) 접근의 한 유형인 개체격자 모형(Entity-Grid model)과 벡터공간 모형에 기반한 LSA(Latent Semantic Analysis)를 모두 시도하고 결과를 서로 비교하였다. 개체격자 모형에 대한 기존 연구들에서 논의된 명사들의 통사역(syntactic role) 정보가 한국어 텍스트 정렬과제에 미치는 영향을 실험하고자 하였으며, 기존 독일어권 응용연구 결과와는 달리 긍정적인 결과를 얻었다. 이 과정에서 한국어의 격조사를 활용하는 전략을 취했으며, 이는 한국어의 격표지 정보가 한국어 텍스트의 응집성을 측정하는 데에 유용할 수 있다는 점을 보인 것이다. 그리고 개체격자 모형을 통한 결과를 LSA 기반 모형결과와 비교하여 양 모형의 장단점과 향후 개선점을 아울러 논의하였다.

  • PDF

한국어 초록 작성의 자동화에 관한 연구 -미생물학분야 학술지의 논문을 대상으로- (A Study on the Automatic Abstracting System for Journal Articles in Korean in the Field of Microbiology)

  • 이태영
    • 정보관리학회지
    • /
    • 제9권2호
    • /
    • pp.43-79
    • /
    • 1992
  • 자연 언어 처리 문법 중 격문법, 개념 의존 문법, PATR-II, DCG를 응용하여 미생 물학 분야에 대한 한국어 자동 초록 시스템의 구축을 연구하였다. 표본으로 선택된 초록들 을 분석하여 초록의 구조가 연구 목적 문장, 방법.결과 문장, 결론 문장 의 순으로 이루어지 는 것을 알았고 이를 초록의 이상적인 구조 형식으로 정하였다. 본문에서는 문장 발췌와 발 췌된 문장들이 초록의 문장으로 정제되도록 하는 과정에서 중요한 역할을 하는 명사 역할 자질과 그 자질을 부여하는 규칙을 개발 하였다. 그리고 발췌된 문장들을 재정렬시키기 위 한 재정렬 규칙, 초록 문장을 생성하기 위한 문장 생성 규칙을 두었다. 그리고 본 시스템의 방법론으로 작성된 자동 초록들을 평가한 결과, 본 시스템의 방법론이 저자 초록과 같은 수 준에 오르려면 정밀한 역할 자질의 확립과 문장 생성 규칙에 대한 보다 깊은 연구가 필요하 다고 사려된다.

  • PDF

문서 주제에 따른 문장 생성을 위한 LSTM 기반 언어 학습 모델 (LSTM based Language Model for Topic-focused Sentence Generation)

  • 김다해;이지형
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2016년도 제54차 하계학술대회논문집 24권2호
    • /
    • pp.17-20
    • /
    • 2016
  • 딥러닝 기법이 발달함에 따라 텍스트에 내재된 의미 및 구문을 어떠한 벡터 공간 상에 표현하기 위한 언어 모델이 활발히 연구되어 왔다. 이를 통해 자연어 처리를 기반으로 하는 감성 분석 및 문서 분류, 기계 번역 등의 분야가 진보되었다. 그러나 대부분의 언어 모델들은 텍스트에 나타나는 단어들의 일반적인 패턴을 학습하는 것을 기반으로 하기 때문에, 문서 요약이나 스토리텔링, 의역된 문장 판별 등과 같이 보다 고도화된 자연어의 이해를 필요로 하는 연구들의 경우 주어진 텍스트의 주제 및 의미를 고려하기에 한계점이 있다. 이와 같은 한계점을 고려하기 위하여, 본 연구에서는 기존의 LSTM 모델을 변형하여 문서 주제와 해당 주제에서 단어가 가지는 문맥적인 의미를 단어 벡터 표현에 반영할 수 있는 새로운 언어 학습 모델을 제안하고, 본 제안 모델이 문서의 주제를 고려하여 문장을 자동으로 생성할 수 있음을 보이고자 한다.

  • PDF

A Computational Model of Language Learning Driven by Training Inputs

  • 이은석;이지훈;장병탁
    • 한국인지과학회:학술대회논문집
    • /
    • 한국인지과학회 2010년도 춘계학술대회
    • /
    • pp.60-65
    • /
    • 2010
  • Language learning involves linguistic environments around the learner. So the variation in training input to which the learner is exposed has been linked to their language learning. We explore how linguistic experiences can cause differences in learning linguistic structural features, as investigate in a probabilistic graphical model. We manipulate the amounts of training input, composed of natural linguistic data from animation videos for children, from holistic (one-word expression) to compositional (two- to six-word one) gradually. The recognition and generation of sentences are a "probabilistic" constraint satisfaction process which is based on massively parallel DNA chemistry. Random sentence generation tasks succeed when networks begin with limited sentential lengths and vocabulary sizes and gradually expand with larger ones, like children's cognitive development in learning. This model supports the suggestion that variations in early linguistic environments with developmental steps may be useful for facilitating language acquisition.

  • PDF

유아 언어학습에 대한 하이퍼망 메모리 기반 모델 (Hypernetwork Memory-Based Model for Infant's Language Learning)

  • 이지훈;이은석;장병탁
    • 한국정보과학회논문지:컴퓨팅의 실제 및 레터
    • /
    • 제15권12호
    • /
    • pp.983-987
    • /
    • 2009
  • 유아들의 언어습득에 있어서 중요한 점 하나는 학습자에 대한 언어환경의 노출이다. 유아가 접하는 언어환경은 부모와 같은 인간뿐만 아니라 각종 미디어와 같은 인공적 환경도 포함되며, 유아는 이러한 방대한 언어환경을 탐색하면서 언어를 학습한다. 본 연구는 대용량의 언어 데이터 노출이 영향을 미치는 유아언어학습을 유연하고 적절하게 모사하는 인지적 기제에 따른 기계학습 방식을 제안한다. 유아의 초기 언어학습은 문장수준의 학습과 생성 같은 행동들이 수반되는데, 이는 언어 코퍼스에 대한 노출만으로 모사가 가능하다. 모사의 핵심은 언어 하이퍼망 구조를 가진 기억기반 학습모델이다. 언어 하이퍼망은 언어구성 요소들 간의 상위차원 관계 표상을 가능케 함으로써 새로운 데이터 스트림에 대해 유사구조의 적용과 이용을 도모하여 발달적이고 점진적인 학습을 모사한다. 본 연구에서는 11 개의 유아용 비디오로부터 추출한 문장 32744개를 언어 하이퍼망을 통한 점진적 학습을 수행하여 문장을 생성해 유아의 점진적, 발달적 학습을 모사하였다.