• 제목/요약/키워드: 기계 번역

검색결과 413건 처리시간 0.025초

부조리극의 풍자적 콘텐츠 플롯 연구 - 이근삼 희곡 <원고지>를 중심으로 - (A Study on the Satirical Content Plot of an Absurd Play - Focused on Lee Keun-sam's Play -)

  • 손대환
    • 한국엔터테인먼트산업학회논문지
    • /
    • 제13권5호
    • /
    • pp.73-82
    • /
    • 2019
  • 부조리극의 풍자적 콘텐츠에 나타난 이근삼 희곡 <원고지>의 등장인물들은 가족애를 상실한 채 단지 의무만이 강조되는 현대 자본주의 사회의 가족상을 표상한다. 이들은 경제의 급속한 발전으로 인해 전통적인 인간관계나 가족 관계가 물질 관계로 변하면서 경제 논리에 종속되어 가고 있는 인간들의 모습을 보여준다. 해설자는 연기자와 해설자의 배역의 역할을 함께 표현한다. 그리고 서사극, 부조리극의 특징적 요소로써 줄거리를 제시하며, 연기자들에게 연출자의 콘 닥터의 역할을 하기도 한다. 또한 앞으로 일어날 사건을 예언하고 극중 인물의 내면 의식을 제시하고 사건과 시간을 축소·확장시키기도 한다. 갈등양상에서는 자식들에게 경제적인 책임을 다하기 위해서 교수는 기계처럼 번역을 하고 처는 그렇게 번 돈을 자식들이 요구하는 대로 나누어준다. 중년 교수와 처는 현실의 상황에 변화를 주려는 의지가 없기 때문에 구체적인 갈등이 드러나지 않는다. 그러므로 이 작품에는 플롯의 세부적 갈등이 형성되지 않는다. <원고지>의 플롯은 22개의 서사소들로 이루어져 저녁부터 그 다음 날 아침까지의 시간 구성으로 이루어졌다. 그리고 특별한 사건도 일어나지 않고 한 가족의 일상만을 보여준다. 또한 신문·밥·생일 등과 같은 일상의 단순한 반복을 보여주는 소재들이 반복적 구조를 통해 부조리극의 풍자적 특징을 효과적으로 드러내고 있다. 또한 부조리극의 언어적 특징은 불안, 절망, 환상과 대상의 목적이 사라진 상실감을 표현하는 데에 주목한다. 무대는 사실주의적인 구체적인 상징을 벗어나고 희곡의 주제에 부합되는 단순한 극적 분위기를 표출한다. 따라서 이를 통해 무대 장치역시 반사실주의 부조리극의 풍자성의 특징을 나타내는 중요한 요소라는 점이다.

언어 정보가 반영된 문장 점수를 활용하는 삭제 기반 문장 압축 (Deletion-Based Sentence Compression Using Sentence Scoring Reflecting Linguistic Information)

  • 이준범;김소언;박성배
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권3호
    • /
    • pp.125-132
    • /
    • 2022
  • 문장 압축은 원본 문장의 중요한 의미는 유지하면서 길이가 축소된 압축 문장을 생성하는 자연어처리 태스크이다. 문법적으로 적절한 문장 압축을 위해, 초기 연구들은 사람이 정의한 언어 규칙을 활용하였다. 또한 시퀀스-투-시퀀스 모델이 기계 번역과 같은 다양한 자연어처리 태스크에서 좋은 성능을 보이면서, 이를 문장 압축에 활용하고자 하는 연구들도 존재했다. 하지만 언어 규칙을 활용하는 연구의 경우 모든 언어 규칙을 정의하는 데에 큰 비용이 들고, 시퀀스-투-시퀀스 모델 기반 연구의 경우 학습을 위해 대량의 데이터셋이 필요하다는 문제점이 존재한다. 이를 해결할 수 있는 방법으로 사전 학습된 언어 모델인 BERT를 활용하는 문장 압축 모델인 Deleter가 제안되었다. Deleter는 BERT를 통해 계산된 perplexity를 활용하여 문장을 압축하기 때문에 문장 압축 규칙과 모델 학습을 위한 데이터셋이 필요하지 않다는 장점이 있다. 하지만 Deleter는 perplexity만을 고려하여 문장을 압축하기 때문에, 문장에 속한 단어들의 언어 정보를 반영하여 문장을 압축하지 못한다. 또한, perplexity 측정을 위한 BERT의 사전 학습에 사용된 데이터가 압축 문장과 거리가 있어, 이를 통해 측정된 perplexity가 잘못된 문장 압축을 유도할 수 있다는 문제점이 있다. 이를 해결하기 위해 본 논문은 언어 정보의 중요도를 수치화하여 perplexity 기반의 문장 점수 계산에 반영하는 방법을 제안한다. 또한 고유명사가 자주 포함되어 있으며, 불필요한 수식어가 생략되는 경우가 많은 뉴스 기사 말뭉치로 BERT를 fine-tuning하여 문장 압축에 적절한 perplexity를 측정할 수 있도록 하였다. 영어 및 한국어 데이터에 대한 성능 평가를 위해 본 논문에서 제안하는 LI-Deleter와 비교 모델의 문장 압축 성능을 비교 실험을 진행하였고, 높은 문장 압축 성능을 보임을 확인하였다.

Bi-LSTM 기반의 한국어 감성사전 구축 방안 (KNU Korean Sentiment Lexicon: Bi-LSTM-based Method for Building a Korean Sentiment Lexicon)

  • 박상민;나철원;최민성;이다희;온병원
    • 지능정보연구
    • /
    • 제24권4호
    • /
    • pp.219-240
    • /
    • 2018
  • 감성사전은 감성 어휘에 대한 사전으로 감성 분석(Sentiment Analysis)을 위한 기초 자료로 활용된다. 이와 같은 감성사전을 구성하는 감성 어휘는 특정 도메인에 따라 감성의 종류나 정도가 달라질 수 있다. 예를 들면, '슬프다'라는 감성 어휘는 일반적으로 부정의 의미를 나타내지만 영화 도메인에 적용되었을 경우 부정의 의미를 나타내지 않는다. 그렇기 때문에 정확한 감성 분석을 수행하기 위해서는 특정 도메인에 알맞은 감성사전을 구축하는 것이 중요하다. 최근 특정 도메인에 알맞은 감성사전을 구축하기 위해 범용 감성 사전인 오픈한글, SentiWordNet 등을 활용한 연구가 진행되어 왔으나 오픈한글은 현재 서비스가 종료되어 활용이 불가능하며, SentiWordNet은 번역 간에 한국 감성 어휘들의 특징이 잘 반영되지 않는다는 문제점으로 인해 특정 도메인의 감성사전 구축을 위한 기초 자료로써 제약이 존재한다. 이 논문에서는 기존의 범용 감성사전의 문제점을 해결하기 위해 한국어 기반의 새로운 범용 감성사전을 구축하고 이를 KNU 한국어 감성사전이라 명명한다. KNU 한국어 감성사전은 표준국어대사전의 뜻풀이의 감성을 Bi-LSTM을 활용하여 89.45%의 정확도로 분류하였으며 긍정으로 분류된 뜻풀이에서는 긍정에 대한 감성 어휘를, 부정으로 분류된 뜻풀이에서는 부정에 대한 감성 어휘를 1-gram, 2-gram, 어구 그리고 문형 등 다양한 형태로 추출한다. 또한 다양한 외부 소스(SentiWordNet, SenticNet, 감정동사, 감성사전0603)를 활용하여 감성 어휘를 확장하였으며 온라인 텍스트 데이터에서 사용되는 신조어, 이모티콘에 대한 감성 어휘도 포함하고 있다. 이 논문에서 구축한 KNU 한국어 감성사전은 특정 도메인에 영향을 받지 않는 14,843개의 감성 어휘로 구성되어 있으며 특정 도메인에 대한 감성사전을 효율적이고 빠르게 구축하기 위한 기초 자료로 활용될 수 있다. 또한 딥러닝의 성능을 높이기 위한 입력 자질로써 활용될 수 있으며, 기본적인 감성 분석의 수행이나 기계 학습을 위한 대량의 학습 데이터 세트를 빠르게 구축에 활용될 수 있다.