• 제목/요약/키워드: 언어 종류

검색결과 366건 처리시간 0.024초

후윤상피열근에 $Botox^{circledR}$ 주사로 치유된 외전형 연축성 발성장애 1례 (A Case of Abductor Type Spasmodic Dysphonia Treated with $Botox^{circledR}$ Injection to Posterior Cricoarytenoid muscle)

  • 서장수;송시연;배창훈;정옥란
    • 대한음성언어의학회:학술대회논문집
    • /
    • 대한음성언어의학회 1996년도 제6회 학술대회 심포지움
    • /
    • pp.86-86
    • /
    • 1996
  • 연축성 발성장애(spasmodic dysphonia)는 아직까지 그 원인을 정확히 밝혀내지 못하고 있는 만성적인 발성장애로 과거에는 경직성 발성장애(spastic dysphonia)로 불리던 질환이다. 연축성 발성장애는 두 종류 즉, 내전형(adductor)과 외전형(abductor)으로 나누어지며 이중 내전형이 대부분이다. 외전형 연축성 발성장애는 발성도중에 성대가 갑자기 불수의적으로 외전되면서 음성이 중단되므로 원활히 대화하기가 힘든 질환이다. 이러한 질환은 국소적 근긴장이상(fecal dystonia)의 일종이다. 현재까지 연축성 발성장애의 치료법으로 사용되고 있는 것으로는 언어치료, botulium 독소주입술, 편측반회후두신경절 단술, 반회후두신경분쇄술, 상후두신경절단술, 갑상연골성형술, implantable stimulator 등이 있다. 연축성 발성장애 환자에 $Botox^{circledR}$ 주입에 관한 보고는 주로 내전형에 대해서만 보고되고 있으며 외전형에 대하여 보고된 예는 매우 적다. (중략)

  • PDF

한영자동번역에서의 관형절 처리 (Processing Noun-Modifying Clauses in Korean-English Machine Translation)

  • 이용훈;류병래
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2004년도 제16회 한글.언어.인지 한술대회
    • /
    • pp.232-239
    • /
    • 2004
  • 한영 자동번역 시스템에서 관형절의 처리는 시스템의 효율에 영향을 미치는 중요한 요소 중의 하나로 인식되어져 왔다. 본 논문의 목적은 기존의 선행 연구들에서는 주목을 받지 못해 왔던 명사보어관형 절을 제시함으로써 한국어 관형절의 종류를 재분류하고, 이들 관형절을 처리하는 알고리즘을 자동번역의 관점에서 제시하는 데 있다. 본 논문에서 다루게 될 명사보어관형절은 기존의 관계관형절이나 동격관형절과는 다른 언어학적 특성을 보이고 있으나, 자동번역에서는 그들과 비슷한 알고리즘으로 처리될 수 있음을 보이고자 한다.

  • PDF

트위터 말뭉치 수집과 분석 (Twitter Corpus Collection and Analysis)

  • 유대훈;이청재;김석환;이근배
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2009년도 제21회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.136-140
    • /
    • 2009
  • 최근 기존 블로그와 다른 마이크로 블로그의 한 종류로 트위터가 인터넷 상에서 화두로 대두되고 있다. 트위터는 기존 블로그나 미니홈피의 여러 가지 기능을 간소화하고 짧은 내용의 텍스트만을 올릴 수 있는 마이크로 블로그이다. 그런 이유로 트위터는 단순함과 즉시성이라는 고유의 특성을 가지고 일반적인 인터넷 이용자들에게 급속하게 알려지고 있다. 이러한 트위터를 분석하면 다양한 주제에 대해서 인터넷상의 대중들의 생각과 의견들을 알 수 있는 창구가 될 수 있다. 또한 다른 언어권 국가들의 트위터와 비교하면 양 국가간의 문화적 차이를 알 수 있다. 본 논문에서는 한국어 및 영어권 이용자들의 트위터 상의 메시지를 주제별, 목적별 등으로 분석하였다. 그 결과, 한국에서는 트위터 이용을 개인적인 생각을 적는 일기장으로 많이 사용되지만, 영어권 에서는 그 외에도 보도 자료나 광고등 여러 가지 목적으로 사용되고 있다는 것을 알 수 있다.

  • PDF

학습자의 인지부담을 줄이는 중간언어 도입에 대한 연구 (Introduction of Bridge-Language for cognitive burden reduction in the public education system)

  • 이승언;손윤식
    • 한국컴퓨터교육학회 학술대회
    • /
    • 한국컴퓨터교육학회 2018년도 하계학술대회
    • /
    • pp.49-52
    • /
    • 2018
  • SW 교육에 있어서 입문자의 흥미를 유발하고자 블록 기반인 스크래치와 엔트리가 도입되었고 많은 교육 기관에서는 이후 ARDUINO, C, JAVA, PYTHON 등을 선택 교육하고 있다. 이 과정에서 코딩보다는 사고력을 강조하며 정보 교과 내에서 문법 공부하는 것을 기피하는 풍토를 보인다. 이러한 점은 2015 개정 교육과정 지침에서 특정 언어의 기능습득에 치우치지 않고 학습자의 수준에 맞추어 적절한 도구를 선택하도록 하여 사실상 교수자의 재량에 두고 있는 점에서도 파악할 수 있다. 코딩의 문법학습을 피하는 경향은 코딩교육 도입 초기의 취지와는 다르게 공교육 내에서의 코딩교육의 활성화에 부정적 요소로 작용할 여지가 크다고 우려된다. 따라서 현재 출판된 정보 교과서에서 다루는 프로그래밍 언어의 종류를 조사하고 코딩 문법학습을 최소화를 할 수 있으며 블록코딩에서 텍스트 코딩으로 전환 시 학습자의 부담을 감소할 수단으로 PROCESSING를 통한 과정을 제안하는 바이다.

  • PDF

구문 분석 말뭉치 구축을 위한 분석의 원칙, 방법, 문제 (Principles, methods, and some problems in compiling a Korean treebank)

  • 김의수;강범모
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2002년도 제14회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.155-162
    • /
    • 2002
  • 본고는 21세기 세종계획의 일환으로 현재 구축 중인 구문 분석 말뭉치의 분석 방안에 대한 연구이다 논의하고자 하는 내용은 첫째, 구문 분석에서의 기본 원칙과 표지의 종류 및 세부 원칙에 대한 것이다. 둘째, 이러한 구문 분석 방안을 마련하는 데 있어 심각하게 고려된 몇 가지 유형의 문제들에 관한 논의이다. 특히 이 문제들은 자연언어처리에서뿐만 아니라 이론적인 국어학의 연구에서도 매우 중요하다. 화자의 직관에 의해서라기보다는 실제 말뭉치 구축 작업을 통해서 그 실체가 확연하게 드러나는 문제들이라는 점에서 이들은 우리의 관심을 끌기에 충분하다. 본고에서는 이러한 문제들이 실제 구문 분석에서 어떻게 발생하고 어떻게 해결될 수 있는지를 보일 것이다.

  • PDF

감성 분류를 위한 워드 임베딩 성능 비교 (Performance Comparison of Word Embeddings for Sentiment Classification)

  • 윤혜진;구자환;김응모
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.760-763
    • /
    • 2021
  • 텍스트를 자연어 처리를 위한 모델에 적용할 수 있게 언어적인 특성을 반영해서 단어를 수치화하는 방법 중 단어를 벡터로 표현하여 나타내는 워드 임베딩은 컴퓨터가 인간의 언어를 이해하고 분석 가능한 언어 모델의 필수 요소가 되었다. Word2vec 등 다양한 워드 임베딩 기법이 제안되었고 자연어를 처리할 때에 감성 분류는 중요한 요소이지만 다양한 임베딩 기법에 따른 감성 분류 모델에 대한 성능 비교 연구는 여전히 부족한 실정이다. 본 논문에서는 Emotion-stimulus 데이터를 활용하여 7가지의 감성과 2가지의 감성을 5가지의 임베딩 기법과 3종류의 분류 모델로 감성 분류 학습을 진행하였다. 감성 분류를 위해 Logistic Regression, Decision Tree, Random Forest 모델 등과 같은 보편적으로 많이 사용하는 머신러닝 분류 모델을 사용하였으며, 각각의 결과를 훈련 정확도와 테스트 정확도로 비교하였다. 실험 결과, 7가지 감성 분류 및 2가지 감성 분류 모두 사전훈련된 Word2vec가 대체적으로 우수한 정확도 성능을 보였다.

이중언어자의 위계모형 검증 : 암묵기억과제와 외현기억과제의 효과 (A Test of Hierarchical Model of Bilinguals Using Implicit and Explicit Memory Tasks)

  • 김미라;정찬섭
    • 인지과학
    • /
    • 제9권1호
    • /
    • pp.47-60
    • /
    • 1998
  • 이중언어자의 언어구조를 기억정보의 위계적 특성으로 설명하는 위계모형의 적합성을 외현기억검사와 암묵기억검사를 사용하여 살펴보았다. 위계모형에 따르면 단어의 기억표상은 모국어와 외국어의 심성어휘집 정보와 두 언어와 공유하는 개념표상 정보로 구성되어 있으며, 개념표상 정보의 활성화는 심성어휘집 활성화를 통해 이루어지고, 과제의 종류와 번역의 방향성에 따라 심성어휘집과 개념표상의 정보가 별개로 인출될 수 있다. 기억검사중에서 개념 정보의 활성화에 민감한 외현기억검사와 지각 정보의 활성화에 민감한 암묵기억검사는 심성어휘집 정보와 개념표상 정보의 활성화에 상이한 민감성을 보일 것이다. 실험 1에서는 명명과제의 단어들을 의미적으로 범주화하여 제시한 후에 암묵기억검사와 외현기억검사를 실시했고, 실험 2에서는 의미적으로 범주화된 단어목록을 순행 및 역행 번역을 하도록 한 후에 암묵기억검사와 외현기억검사를 했다. 명명과제와 역행번역 및 암묵기억검사에는 목록의 의미적 범주효과가 나타나지 않았고, 순행번역 및 외현기억검사에는 목록의 의미적 범주효과가 나타났다. 이런 결과를 이중언어자의 언어구조가 언어에 따르는 별개의 심성어휘집과 공통의 개념표상을 지니고 있다는 위계모형을 지지하는 것으로 해석하였다.

  • PDF

SNS에서의 언어 간 감성 차이 연구: 6개 언어를 중심으로 (Differences in Sentiment on SNS: Comparison among Six Languages)

  • 김형호;장필식
    • 디지털융복합연구
    • /
    • 제14권3호
    • /
    • pp.165-170
    • /
    • 2016
  • 본 연구의 목적은 SNS 활용에 있어 사용자 언어 간 감성의 평균차이가 있는지를 검증하는 것이다. 가장 많이 이용되는 SNS 중 하나인 트위터를 대상으로, 영어, 독일어, 러시아어, 스페인어, 터키어 및 네덜란드어 등 6개 언어로 작성된 약 2억 개 트윗을 스트리밍 API를 이용하여 수집하였으며, SentiStrength를 이용하여 주관적/객관적 비율, 감성강도, 긍정/부정 비율, 리트윗 횟수 및 경계불투과도 등에 대한 분석을 시행하고, 트위터를 통한 감성표현의 경향성과 변동을 파악하였다. 분석결과, 언어권에 따라 주관적/객관적 트윗 비율과 긍정/부정 트윗 비율이 각각 통계적으로 유의한 차이가 있는 것으로 나타났다(p<0.001). 또한, 언어의 종류는 감성강도와 경계 불투과도 그리고 리트윗 횟수에 통계적으로 유의한(p<0.001) 영향을 미치는 것으로 파악되었다. 이러한 결과는 SNS를 활용한 감성분석에 있어 언어, 문화 별 경향성 및 수준차이를 반드시 고려하여야 한다는 것을 보여준다.

언어 모델 기반 페르소나 대화 모델 (Personalized Chit-chat Based on Language Models)

  • 장윤나;오동석;임정우;임희석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.491-494
    • /
    • 2020
  • 최근 언어 모델(Language model)의 기술이 발전함에 따라, 자연어처리 분야의 많은 연구들이 좋은 성능을 내고 있다. 정해진 주제 없이 인간과 잡담을 나눌 수 있는 오픈 도메인 대화 시스템(Open-domain dialogue system) 분야에서 역시 이전보다 더 자연스러운 발화를 생성할 수 있게 되었다. 언어 모델의 발전은 응답 선택(Response selection) 분야에서도 모델이 맥락에 알맞은 답변을 선택하도록 하는 데 기여를 했다. 하지만, 대화 모델이 답변을 생성할 때 일관성 없는 답변을 만들거나, 구체적이지 않고 일반적인 답변만을 하는 문제가 대두되었다. 이를 해결하기 위하여 화자의 개인화된 정보에 기반한 대화인 페르소나(Persona) 대화 데이터 및 태스크가 연구되고 있다. 페르소나 대화 태스크에서는 화자마다 주어진 페르소나가 있고, 대화를 할 때 주어진 페르소나와 일관성이 있는 답변을 선택하거나 생성해야 한다. 이에 우리는 대용량의 코퍼스(Corpus)에 사전 학습(Pre-trained) 된 언어 모델을 활용하여 더 적절한 답변을 선택하는 페르소나 대화 시스템에 대하여 논의한다. 언어 모델 중 자기 회귀(Auto-regressive) 방식으로 모델링을 하는 GPT-2, DialoGPT와 오토인코더(Auto-encoder)를 이용한 BERT, 두 모델이 결합되어 있는 구조인 BART가 실험에 활용되었다. 이와 같이 본 논문에서는 여러 종류의 언어 모델을 페르소나 대화 태스크에 대해 비교 실험을 진행했고, 그 결과 Hits@1 점수에서 BERT가 가장 우수한 성능을 보이는 것을 확인할 수 있었다.

  • PDF