• 제목/요약/키워드: 과학 언어

검색결과 1,503건 처리시간 0.027초

과학 학습 과정에서 나타나는 중간언어의 유형 및 과학 언어에 대한 이해수준 변화에 따른 중간언어의 특징 (The Patterns of Interlanguage in Science Learning and the Characteristics of Interlanguage through the Change of Understanding of Science Languages)

  • 양찬호;김지영;신필여;위햇님;신명환;강도영;김소요;민현식;김찬종;노태희
    • 한국과학교육학회지
    • /
    • 제31권5호
    • /
    • pp.745-757
    • /
    • 2011
  • 이 연구에서는 중학교 3학년 학생들이 물리변화와 화학변화를 나타내는 현상을 구분하고 설명하는 과정에서 사용하는 중간언어를 집단토의 활동과 사후면담을 통해 조사하였다. 학생들이 사용한 언어를 귀납적으로 분석하여 중간언어의 유형을 분류하고, 과학 언어에 대한 이해수준의 변화에 따른 중간언어의 특징을 조사하였다. 연구 결과, 학생들의 중간언어는 그 의미와 형태에 따라 세 가지 유형으로 나타났다. 중간 언어 유형 1은 과학적 의미를 나타내기 위해 과학 언어와 일상 언어를 함께 사용하는 언어 사용 방식으로, 과학 언어에 대한 이해수준 변화와 관련 없이 대부분의 학생들이 사용하는 것으로 나타났다. 중간언어 유형 2는 과학적 의미를 나타내기 위해 일상 언어만을 사용하는 언어 사용 방식으로, 과학 언어에 대한 이해가 높은 학생들에게서만 나타났다. 중간언어 유형 3은 언어를 다중적인 의미로 사용하는 언어 사용 방식으로, 과학 언어에 대한 피상적 이해를 지닌 학생들에게서 주로 나타났다. 이에 대한 교육학적 함의를 논의하였다.

지구과학 논문과 지구과학 교과서 텍스트의 과학 언어적 특성 비교 (Comparison of the Features of Science Language between Texts of Earth Science Articles and Earth Science Textbooks)

  • 이정아;김찬종;맹승호
    • 한국과학교육학회지
    • /
    • 제27권5호
    • /
    • pp.367-378
    • /
    • 2007
  • 과학 교과서와 과학 연구 논문의 과학 언어적 특성을 조사하기 위하여 지구과학 교과서 2 종과 지구과학 논문 2 편을 선정하여 각 텍스트의 과학 용어 분류, 설명 텍스트의 구조 분석과 접속 관계를 통한 추론 분석, 접속어의 기능에 대한 분석 방법을 적용하여 분석하였다. 연구 결과, 지구과학 교과서에서 드러난 학교 과학의 언어는 명명어의 비중이 높으며, 정의/예시 구조와 기술 구조 중심의 설명 텍스트 구조를 보였다. 또한, 논리적 추론보다는 부가적인 나열 관계를 나타내는 내적 관계가 우세하였다. 이에 반해 지구과학 논문에서 볼 수 있는 과학자의 과학 언어는 명명어의 비중이 큰 가운데서도 과정어와 개념어의 비중이 과학 교과서의 과학 언어에 비해 높았으며, '도입 - 연관 계열 - 결론'에 이르는 설명 텍스트의 도식적 구조를 갖추고 있었다. 또한, 연관 계열을 이루는 각 문장의 텍스트 구조는 원인/결과 구조 또는 기술 구조에 뒤이은 문제/해결 구조를 보였으며, 각 문장틀 간에 부사형 어미나 동사를 이용한 내적 관계를 통해 인과적 추론 또는 귀추적 추론 관계를 표현하고 있었다. 학생들의 진정한 과학 언어 사용을 위해서는 두 언어 사이의 간극을 줄이는 것이 필요하다. 이를 위해 학교 과학의 언어와 과학자의 언어를 매개하는 지구과학 교사의 교수 언어로서 중간 언어를 제안하였다.

대규모 언어 모델의 언어 패턴 다양화를 위한 반복적 피드백 기반 성격 페르소나 생성법 (Iterative Feedback-based Personality Persona Generation for Diversifying Linguistic Patterns in Large Language Models)

  • 황태호;송호윤;신지수;조석민;박종철
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.454-460
    • /
    • 2023
  • 대규모 언어 모델(Large Language Models, LLM)의 발전과 더불어 대량의 학습 데이터로부터 기인한 LLM의 편향성에 관심이 집중하고 있다. 최근 선행 연구들에서는 LLM이 이러한 경향성을 탈피하고 다양한 언어 패턴을 생성하게 하기 위하여 LLM에 여러가지 페르소나를 부여하는 방법을 제안하고 있다. 일부에서는 사람의 성격을 설명하는 성격 5 요인 이론(Big 5)을 이용하여 LLM에 다양한 성격 특성을 가진 페르소나를 부여하는 방법을 제안하였고, 페르소나 간의 성격의 차이가 다양한 양상의 언어 사용 패턴을 이끌어낼 수 있음을 보였다. 그러나 제한된 횟수의 입력만으로 목표하는 성격의 페르소나를 생성하려 한 기존 연구들은 세밀히 서로 다른 성격을 가진 페르소나를 생성하는 데에 한계가 있었다. 본 연구에서는 페르소나 부여 과정에서 피드백을 반복하여 제공함으로써 세세한 성격의 차이를 가진 페르소나를 생성하는 방법론을 제안한다. 본 연구의 실험과 분석을 통해, 제안하는 방법론으로 형성된 성격 페르소나가 다양한 언어 패턴을 효과적으로 만들어 낼 수 있음을 확인했다.

  • PDF

KorSciDeBERTa: 한국어 과학기술 분야를 위한 DeBERTa 기반 사전학습 언어모델 (KorSciDeBERTa: A Pre-trained Language Model Based on DeBERTa for Korean Science and Technology Domains)

  • 김성찬;김경민;김은희;이민호;이승우;최명석
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2023년도 제35회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.704-706
    • /
    • 2023
  • 이 논문에서는 과학기술분야 특화 한국어 사전학습 언어모델인 KorSciDeBERTa를 소개한다. DeBERTa Base 모델을 기반으로 약 146GB의 한국어 논문, 특허 및 보고서 등을 학습하였으며 모델의 총 파라미터의 수는 180M이다. 논문의 연구분야 분류 태스크로 성능을 평가하여 사전학습모델의 유용성을 평가하였다. 구축된 사전학습 언어모델은 한국어 과학기술 분야의 여러 자연어처리 태스크의 성능향상에 활용될 것으로 기대된다.

  • PDF

2015 개정 교육과정에 따른 초등학교 과학과 디지털교과서의 물질 영역에 나타난 외적 표상의 양식과 제시 방법, 상호작용성 분석 (Analyzing the Form, Presentation, and Interactivity of External Representations in the Matter Units of Elementary Science Digital Textbooks Developed Under the 2015 Revised National Curriculum)

  • 김혜린;신기덕;노태희;김민환
    • 한국초등과학교육학회지:초등과학교육
    • /
    • 제41권2호
    • /
    • pp.418-431
    • /
    • 2022
  • 이 연구에서는 2015 개정 교육과정에 따른 초등학교 과학 디지털교과서의 물질 영역에 제시된 외적 표상의 양식과 제시 방법, 상호작용성을 분석하였다. 선행연구의 분석틀을 본 연구의 맥락에 맞게 수정·보완하여 사용하였으며, 3~6학년 디지털 과학교과서에서 물질 영역을 다루는 단원을 '본문'과 '탐구'로 구분하여 분석하였다. 분석 결과, 외적 표상의 양식은 시각언어 표상과 시각비언어 표상이 가장 많이 제시되었으며, 청각비언어 표상은 본문에만 높은 빈도로 제시되고 청각언어 표상은 본문과 탐구 전체에서 낮은 빈도로 제시되었다. 제시 방법 측면에서 언어적 표상과 시각비언어 표상이 함께 나타난 경우에는 대부분 시각언어 표상과 시각비언어 표상이 함께 제시되었다. 시각언어 표상, 청각언어 표상, 시각비언어 표상이 함께 제시된 경우 중 일부에서 시각언어 표상과 청각언어 표상의 정보가 중복적으로 제시되었다. 그리고 내용과 관계없는 청각비언어 표상이 다른 외적 표상들과 함께 제시되었으며, 그 빈도는 특히 본문에서 높았다. 근접성 측면에서 시각언어 표상과 시각비언어 표상이 다른 페이지에 배치되는 경우는 없었고, 청각언어 표상을 시각비언어 표상과 다른 시점에 제시하는 경우도 없었다. 상호작용성 측면에서는 설명적 피드백과 낮은 수준의 조작이 주로 나타났다. 이상의 결과를 바탕으로 다중 표상 학습의 관점에서 디지털교과서를 개선하기 위한 방안을 논의하였다.

패션앱 후기글 평가분석에 기반한 의류 검색추천 챗봇 개발을 위한 학습데이터 EVAD 구축 (Construction of Evaluation-Annotated Datasets for EA-based Clothing Recommendation Chatbots)

  • 최수원;황창회;유광훈;남지순
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2021년도 제33회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.467-472
    • /
    • 2021
  • 본 연구는 패션앱 후기글에 나타나는 구매자의 의견에 대한 '평가분석(Evaluation Analysis: EA)'을 수행하여, 이를 기반으로 상품의 검색 및 추천을 수행하는 의류 검색추천 챗봇을 개발하는 LICO 프로젝트의 언어데이터 구축의 일환으로 수행되었다. '평가분석 트리플(EAT)'과 '평가기반요청 쿼드러플(EARQ)'의 구성요소들에 대한 주석작업은, 도메인 특화된 단일형 핵심어휘와 다단어(MWE) 핵심패턴들을 FST 방식으로 구조화하는 DECO-LGG 언어자원에 기반하여 반자동 언어데이터 증강(SSP) 방식을 통해 진행되었다. 이 과정을 통해 20여만 건의 후기글 문서(230만 어절)로 구성된 EVAD 평가주석데이터셋이 생성되었다. 여성의류 도메인의 평가분석을 위한 '평가속성(ASPECT)' 성분으로 14가지 유형이 분류되었고, 각 '평가속성'에 연동된 '평가내용(VALUE)' 쌍으로 전체 35가지의 {ASPECT-VALUE} 카테고리가 분류되었다. 본 연구에서 구축된 EVAD 평가주석 데이터의 성능을 평가한 결과, F1-Score 0.91의 성능 평가를 획득하였으며, 이를 통해 향후 다른 도메인으로의 확장된 적용 가능성이 유효함을 확인하였다.

  • PDF

AI 어시스턴트 플랫폼의 한국어와 중국어 음악청취 요청문 패턴구축 비교 연구 (A Comparative Study on Building Korean & Chinese Music Request Sentence Patterns for AI Assistant Platforms)

  • 윤소은;이가빈;남지순
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.383-388
    • /
    • 2020
  • 본 연구에서는 AI 어시스턴트의 음악청취 도메인 내 요청문을 인식 및 처리하기 위해 한국어와 중국어를 중심으로 도메인 사전 및 패턴문법 언어자원을 구축하고 그 결과를 비교분석 하였다. 이를 통해 향후 다국어 언어자원 구축의 접근 방법을 모색할 수 있으며, 궁극적으로 패턴 기반 문법으로 기술한 언어자원을 요청문 인식에 직접 활용하고 또한 주석코퍼스 생성을 통해 기계학습 성능 향상에 도움을 줄 수 있을 것으로 기대된다. 본 연구에서는 우선 패턴문법의 구체적인 양상을 살펴보기에 앞서, 해당 도메인의 요청문 유형의 카테고리를 결정하는 과정을 거쳤다. 이를 기반으로 한국어와 중국어 요청문의 실현 양상과 패턴유형을 LGG 프레임으로 구조화한 후, 한국어와 중국어 패턴문법 간의 통사적, 형태적, 어휘적 차이점을 비교분석 하여 음악청취 도메인 요청문의 언어별 생성 구조 차이점을 관찰할 수 있었다. 구축한 패턴문법은 개체명을 변수(X)로 설정하는 경우, 한국어에서는 약 2,600,600개, 중국어에서는 약 11,195,600개의 표현을 인식할 수 있었다. 결과적으로 본 연구에서 제안한 언어자원의 언어별 차이에 대한 통찰을 통해 다국어 차원의 요청문 인식 자원과 기계학습 데이터로서의 효용을 확인하였다.

  • PDF

DECO-LGG 언어자원 및 의존파서와 LSTM을 활용한 하이브리드 자질기반 감성분석 플랫폼 DecoFESA 구현 (DecoFESA: A Hybrid Platform for Feature-based Sentiment Analysis Based on DECO-LGG Linguistic Resources with Parser and LSTM)

  • 황창회;유광훈;남지순
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.321-326
    • /
    • 2020
  • 본 연구에서는 한국어 감성분석 성능 향상을 위한 DECO(Dictionnaire Electronique du COreen) 한국어 전자사전과 LGG(Local-Grammar Graph) 패턴문법 기술 프레임에 의존파서 및 LSTM을 적용하는 하이브리드 방법론을 제안하였다. 본 연구에 사용된 DECO-LGG 언어자원을 소개하고, 이에 기반하여 의미 정보를 의존파서(D-PARS)와 페어링하는 한편 OOV(Out Of Vocabulary)의 문제를 LSTM을 통해 해결하여 자질기반 감성분석 결과를 제시하였다. 부트스트랩 방식으로 반복 확장될 수 있는 LGG 언어자원 및 알고리즘을 통해 수행되는 자질기반 감성분석 프로세스는 전용 플랫폼 DecoFESA를 통해 그 범용성을 확장하였다. 실험을 위해서 네이버 쇼핑몰의 '화장품 구매 후기글'을 크롤링하였으며, DecoFESA 플랫폼을 통해 현재 구축된 DECO-LGG 언어자원 기반의 감성분석 성능을 평가하였다. 이를 통해 대용량 언어자원의 구축과 이를 활용하기 위한 어휘 시퀀스 처리 알고리즘의 구현이 보다 정확한 자질기반 감성분석 결과를 제공할 수 있음을 확인하였다.

  • PDF

높은 공간능력과 낮은 언어능력을 가진 초등 미성취 과학영재의 발견가능성 탐색 - 빛의 직진 개념을 중심으로 - (Exploration on possibility of finding gifted underachievers with high spatial ability and low verbal ability in elementary science field: Focused on "Light Propagation")

  • 정연수;이지원;김중복
    • 영재교육연구
    • /
    • 제26권1호
    • /
    • pp.101-122
    • /
    • 2016
  • 공간능력이 과학의 발전을 위해 중요한 요소임에도 불구하고 사회문화적 인식으로 인해 높은 공간능력과 낮은 언어능력을 가진 영재학생들이 미성취하는 경향을 보이고 있다. 국내에서는 영재 선발을 위한 관찰 추천 시에 교사들이 여전히 학업성취도를 많이 반영하고 있으며 높은 공간능력과 낮은 언어능력을 가진 미성취영재에 대한 관심이 부족한 실정이다. 본 연구에서는 초등학교 5학년 학생들을 대상으로 공간능력과 언어능력에 따른 빛의 직진에 대한 이해 정도와 과학학업성취도 간의 차이를 살펴보고 빛의 직진 이해에서 보이는 특징을 질적으로 분석함으로써 높은 공간능력을 가진 미성취 과학영재1)의 발견가능성을 탐색하고자 한다. 연구결과는 과학영재 추천 시 과학학업성취도를 중요하게 반영할 때 발생할 수 있는 문제점을 보여주며, 교육현장에서 높은 공간능력과 낮은 언어능력을 가진 미성취 과학영재의 발견가능성과 그들의 과학적 잠재력을 확인하기 위한 방법으로써 비언어성 검사의 활용 가능성을 보여준다.

사전 학습된 한국어 언어 모델의 보정 (Calibration of Pre-trained Language Model for Korean)

  • 정소영;양원석;박채훈;박종철
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2020년도 제32회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.243-248
    • /
    • 2020
  • 인공 신경망을 통한 심층 학습 모델의 발전은 컴퓨터 비전, 자연언어 이해 문제들에서 인간을 뛰어넘는 성능을 보이고 있다. 특히 트랜스포머[1] 기반의 사전 학습 모델은 질의응답, 대화문과 같은 자연언어 이해 문제에서 최근 높은 성능을 보이고 있다. 하지만 트랜스포머 기반의 모델과 같은 심층 학습 모델의 급격한 발전 양상에 비해, 이의 동작 방식은 상대적으로 잘 알려져 있지 않다. 인공 신경망을 통한 심층 학습 모델을 해석하는 방법으로 모델의 예측 값과 실제 값이 얼마나 일치하는지를 측정하는 모델의 보정(Calibration)이 있다. 본 연구는 한국어 기반의 심층학습 모델의 해석을 위해 모델의 보정을 수행하였다. 그리고 사전 학습된 한국어 언어 모델이 문장이 내포하는 애매성을 잘 파악하는지의 여부를 확인하고, 완화 기법들을 적용하여 문장의 애매성을 확신 수준을 통해 정량적으로 출력할 수 있도록 하였다. 또한 한국어의 문법적 특징으로 인한 문장의 의미 변화를 모델 보정 관점에서 평가하여 한국어의 문법적 특징을 심층학습 언어 모델이 잘 이해하고 있는지를 정량적으로 확인하였다.

  • PDF