• 제목/요약/키워드: language model

검색결과 2,708건 처리시간 0.033초

외국인 모델의 매력도와 외국어 사용의 상호작용 효과 (The Interaction Effect of Foreign Model Attractiveness and Foreign Language Usage)

  • 이지현;이동일
    • 마케팅과학연구
    • /
    • 제17권3호
    • /
    • pp.61-81
    • /
    • 2007
  • 현재 한국시장의 광고에는 외국인 모델과 외국어를 사용하는 것이 일반적이다. 그러나 그 효과에 대한 검증은 거의 이루어지지 않고 있다. 기존의 연구에 의하면 마케팅 커뮤니케이션과 소비자의 문화적 가치가 일치하게 될 때 커뮤니케이션의 효과가 높아진다고 한다. 즉, 광고에의 외국문화 사용은 기존 연구에서 주장하고 있는 바와는 반대의 현상인 것이다. 그러나 인터넷 등 글로벌 매체에 의해 글로벌 문화가 출현함에 따라 마케팅 커뮤니케이션과 소비자의 문화적 가치가 일치하는 것이 가장 바람직한 커뮤니케이션 방법이라 볼 수는 없다. 이에 본 연구는 외국인 모델을 사용하는 광고에 있어서 모델의 매력도와 외국어 사용이 소비자의 광고와 제품에 대한 태도, 구매의도 등에 어떤 영향을 미치는가를 살펴보고 효과적인 광고 커뮤니케이션에 대한 제언을 하고자 했다. 연구결과, 광고에 사용된 언어와 광고의 시각적 단서인 모델 매력도는 광고의 효과에 상호작용 효과를 나타내는 것이 밝혀졌다. 광고에 사용된 모델 매력도가 높은 경우, 제품에 대한 태도, 구매의도가 사용된 언어에 대해 유의한 차이를 보이지 않았다. 광고에 사용된 모델의 매력도가 낮은 경우에는 영어를 사용한 경우가 제품에 대한 태도, 구매의도가 높았다. 즉, 외국인 모델을 광고에 사용할 경우, 그 모델의 매력도의 높고 낮음에 따라 광고에 사용되는 언어를 선택함으로써 광고의 효과를 조절할 수 있다는 실무적 시사점을 제공한다.

  • PDF

대형 언어 모델 기반 신경망을 활용한 강구조물 부재 중량비 예측 (Predicting Steel Structure Product Weight Ratios using Large Language Model-Based Neural Networks)

  • 박종혁;유상현;한수희;김경준
    • 한국전자통신학회논문지
    • /
    • 제19권1호
    • /
    • pp.119-126
    • /
    • 2024
  • 건물 정보 모델(BIM: Building Information Model)은 관련 기업의 개별화된 프로젝트와 학습 데이터양 부족으로 인해 인공지능(AI: Artificial Intelligence) 기반 BIM 애플리케이션 개발이 쉽지 않다. 본 연구에서는 데이터가 제한적인 상황에서 BIM의 강구조물 부재 중량비를 예측하기 위해 사전 학습이 된 대형 언어 모델을 기반으로 신경망을 학습하는 방법을 제시하고 실험하였다. 제안된 모델은 대형 언어 모델을 활용하여 BIM에 내재하는 데이터 부족 문제를 극복할 수 있어 데이터의 양이 부족한 상황에서도 성공적인 학습이 가능하며 대형 언어 모델과 연계된 신경망을 활용하여 자연어와 더불어 숫자 데이터까지 처리할 수 있다. 실험 결과는 제안된 대형 언어 모델 기반 신경망이 기존 소형 언어 모델 기반보다 높은 정확도를 보였다. 이를 통해, 대형 언어 모델이 BIM에 효과적으로 적용될 수 있음이 확인되었으며, 향후 건물 사고 예방 및 건설 비용의 효율적인 관리가 기대된다.

초거대 언어모델과 수학추론 연구 동향 (Research Trends in Large Language Models and Mathematical Reasoning)

  • 권오욱;신종훈;서영애;임수종;허정;이기영
    • 전자통신동향분석
    • /
    • 제38권6호
    • /
    • pp.1-11
    • /
    • 2023
  • Large language models seem promising for handling reasoning problems, but their underlying solving mechanisms remain unclear. Large language models will establish a new paradigm in artificial intelligence and the society as a whole. However, a major challenge of large language models is the massive resources required for training and operation. To address this issue, researchers are actively exploring compact large language models that retain the capabilities of large language models while notably reducing the model size. These research efforts are mainly focused on improving pretraining, instruction tuning, and alignment. On the other hand, chain-of-thought prompting is a technique aimed at enhancing the reasoning ability of large language models. It provides an answer through a series of intermediate reasoning steps when given a problem. By guiding the model through a multistep problem-solving process, chain-of-thought prompting may improve the model reasoning skills. Mathematical reasoning, which is a fundamental aspect of human intelligence, has played a crucial role in advancing large language models toward human-level performance. As a result, mathematical reasoning is being widely explored in the context of large language models. This type of research extends to various domains such as geometry problem solving, tabular mathematical reasoning, visual question answering, and other areas.

정보검색에서의 언어모델 적용에 관한 분석 (An Analysis of the Applications of the Language Models for Information Retrieval)

  • 김희섭;정영미
    • 한국도서관정보학회지
    • /
    • 제36권2호
    • /
    • pp.49-68
    • /
    • 2005
  • 본 연구의 목적은 정보검색 분야에서의 언어모델의 적용에 관한 연구동향을 개관하고 이 분야의 선행연구 결과들을 분석해 보는 것이다. 선행연구들은 (1)전통적인 모델 기반 정보검색과 언어모델링 정보검색의 성능 비교 실험에 초점을 두고 있는 1세대 언어모델링 정보검색(LMIR)과 (2)기본적인 언어모델링 정보검색과 확장된 언어모델링 정보검색의 성능 비교를 통해 보다 우수한 언어모델링 확장기법을 찾아내는 것에 초점을 두고 있는 2세대 LMIR로 구분하여 분석하였다. 선행연구들의 실험결과를 분석해 본 결과 첫째, 언어모델링 정보검색은 확률모델, 벡터모델 정보검색보다 그 성능이 뛰어나고 둘째 확장된 언어모델들은 기본적인 언어 모델 정보검색보다 그 성능이 우수한 것으로 나타났다.

  • PDF

자연어를 이용한 요구사항 모델의 번역 기법 (Translation Technique of Requirement Model using Natural Language)

  • 오정섭;이혜련;임강빈;최경희;정기현
    • 정보처리학회논문지D
    • /
    • 제15D권5호
    • /
    • pp.647-658
    • /
    • 2008
  • 자연어로 작성된 고객의 요구사항은 개발과정에서 모델링 언어로 재작성 된다. 그러나 개발에 참여하는 다양한 계층의 사람들은 모델링 언어로 작성된 요구사항을 이해하지 못하는 경우가 많이 발생한다. 본 논문에서는 REED(REquirement EDitor)로 작성된 요구사항 모델을 자연어로 번역하여 개발에 참여하는 모든 계층의 사람들이 요구사항 모델을 이해할 수 있도록 도와주는 방안을 제시한다. 제시한 방법은 3단계로 구성되어 있다. 1단계 IORT(Input-Output Relation Tree) 생성, 2단계 RTT(Requirement Translation Tree) 생성, 3단계 자연어로 번역의 단계를 거친다.

EPL 기반의 SW전공자를 위한 프로그래밍 수업 모형에 관한 연구 (A Study on the EPL using Instructional Model of SW Major's Programming Class)

  • 고광일
    • 디지털콘텐츠학회 논문지
    • /
    • 제19권5호
    • /
    • pp.891-898
    • /
    • 2018
  • 4차 산업혁명시대에서 그 중요성이 날로 증대하고 있는 소프트웨어의 핵심 교육 영역인 프로그래밍 언어는 논리적 사고 능력을 요구하고 있어 SW전공 학생들에게도 어려운 과목으로 인식되고 있다. 이런 어려움으로 인해 SW전공 학생이 프로그래밍 언어 입문 수업 도중 전공에 대한 흥미와 자신감을 잃고 전공을 변경하거나 학업 자체를 포기하는 상황이 발생하기도 한다. 본 연구는 SW전공자의 프로그래밍 입문 수업에 일반적으로 사용되는 C 언어 교육에 스크래치를 활용하는 수업 모형을 설계하였다. 이를 위해, C언어가 지원하는 프로그래밍 개념들 중 스크래치로 교육 가능한 개념들을 명확히 파악하고 그 개념들의 이해와 활용 능력을 배양하기 위한 스크래치 실습 예제들을 개발하였다. 본 수업 모형은 프로그래밍 개념들에 대해서 먼저 스크래치의 구현 방식 교육과 예제들을 통해 명확하게 이해하고 C언어로 교육 내용을 확장하는 절차를 지원하며 모 지방 사립대의 SW전공 신입생들을 대상으로 효과를 실험하였다.

Robust Sentiment Classification of Metaverse Services Using a Pre-trained Language Model with Soft Voting

  • Haein Lee;Hae Sun Jung;Seon Hong Lee;Jang Hyun Kim
    • KSII Transactions on Internet and Information Systems (TIIS)
    • /
    • 제17권9호
    • /
    • pp.2334-2347
    • /
    • 2023
  • Metaverse services generate text data, data of ubiquitous computing, in real-time to analyze user emotions. Analysis of user emotions is an important task in metaverse services. This study aims to classify user sentiments using deep learning and pre-trained language models based on the transformer structure. Previous studies collected data from a single platform, whereas the current study incorporated the review data as "Metaverse" keyword from the YouTube and Google Play Store platforms for general utilization. As a result, the Bidirectional Encoder Representations from Transformers (BERT) and Robustly optimized BERT approach (RoBERTa) models using the soft voting mechanism achieved a highest accuracy of 88.57%. In addition, the area under the curve (AUC) score of the ensemble model comprising RoBERTa, BERT, and A Lite BERT (ALBERT) was 0.9458. The results demonstrate that the ensemble combined with the RoBERTa model exhibits good performance. Therefore, the RoBERTa model can be applied on platforms that provide metaverse services. The findings contribute to the advancement of natural language processing techniques in metaverse services, which are increasingly important in digital platforms and virtual environments. Overall, this study provides empirical evidence that sentiment analysis using deep learning and pre-trained language models is a promising approach to improving user experiences in metaverse services.

KorPatELECTRA : A Pre-trained Language Model for Korean Patent Literature to improve performance in the field of natural language processing(Korean Patent ELECTRA)

  • Jang, Ji-Mo;Min, Jae-Ok;Noh, Han-Sung
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권2호
    • /
    • pp.15-23
    • /
    • 2022
  • 특허 분야에서 자연어처리(Natural Language Processing) 태스크는 특허문헌의 언어적 특이성으로 문제 해결의 난이도가 높은 과제임에 따라 한국 특허문헌에 최적화된 언어모델의 연구가 시급한 실정이다. 최근 자연어처리 분야에서는 특정 도메인에 특화되게 사전 학습(Pre-trained)한 언어모델을 구축하여 관련 분야의 다양한 태스크에서 성능을 향상시키려는 시도가 지속적으로 이루어지고 있다. 그 중, ELECTRA는 Google이 BERT 이후에 RTD(Replaced Token Detection)라는 새로운 방식을 제안하며 학습 효율성을 높인 사전학습 언어모델이다. 본 연구에서는 대량의 한국 특허문헌 데이터를 사전 학습한 KorPatELECTRA를 제안한다. 또한, 특허 문헌의 특성에 맞게 학습 코퍼스를 정제하고 특허 사용자 사전 및 전용 토크나이저를 적용하여 최적화된 사전 학습을 진행하였다. KorPatELECTRA의 성능 확인을 위해 실제 특허데이터를 활용한 NER(Named Entity Recognition), MRC(Machine Reading Comprehension), 특허문서 분류 태스크를 실험하였고 비교 대상인 범용 모델에 비해 3가지 태스크 모두에서 가장 우수한 성능을 확인하였다.

지화 인식을 위한 계층적 은닉 마코프 모델 (Hierarchical Hidden Markov Model for Finger Language Recognition)

  • 권재홍;김태용
    • 전자공학회논문지
    • /
    • 제52권9호
    • /
    • pp.77-85
    • /
    • 2015
  • 지화(finger language)는 수화(sign language)에 포함되며, 손의 제스쳐로 한글의 모음, 자음을 표현하는 언어 체계이다. 한글 지화는 총 31 제스쳐로 구성되어 있으며, 정확한 인식을 위해서는 하나의 제스쳐에 대해 학습 모델이 많이 필요로 하게 된다. 대량의 학습 모델이 존재할 경우, 입력 데이터는 많은 공간을 탐색하는데 시간을 소비하게 된다. 따라서 실시간 인식 시스템은 이러한 탐색 공간을 줄이는 것이 가장 중요한 문제로 인식되고 있다. 본 논문에서는 이러한 문제를 해결하기 위해 인식률 저하 없이 탐색 공간을 효율적으로 줄이는 계층적 HMM 구조를 제안하였다. 지화는 손목의 방향성에 따라 총 3개의 범주로 설정, 입력 데이터는 이 범주 안에서 모델을 검색하게 된다. 이러한 사전 분류를 진행하여 비슷한 한글 지화의 분별력을 확립하게 되며 탐색 공간 또한 효율적으로 관리되므로 실시간 인식 시스템에 적용 가능하다. 실험 결과, 제안된 방법은 일반적인 HMM 인식 방법보다 평균 3배 정도의 시간을 단축할 수 있있고, 비슷한 한글 지화 제스쳐에 대해 오인식 또한 감소하였다.

거대언어모델 기반 로봇 인공지능 기술 동향 (Technical Trends in Artificial Intelligence for Robotics Based on Large Language Models)

  • 이준기;박상준;김낙우;김에덴;고석갑
    • 전자통신동향분석
    • /
    • 제39권1호
    • /
    • pp.95-105
    • /
    • 2024
  • In natural language processing, large language models such as GPT-4 have recently been in the spotlight. The performance of natural language processing has advanced dramatically driven by an increase in the number of model parameters related to the number of acceptable input tokens and model size. Research on multimodal models that can simultaneously process natural language and image data is being actively conducted. Moreover, natural-language and image-based reasoning capabilities of large language models is being explored in robot artificial intelligence technology. We discuss research and related patent trends in robot task planning and code generation for robot control using large language models.