• Title/Summary/Keyword: 언어 이해 생성 모델

Search Result 74, Processing Time 0.023 seconds

ChatGPT-based Software Requirements Engineering (ChatGPT 기반 소프트웨어 요구공학)

  • Jongmyung Choi
    • Journal of Internet of Things and Convergence
    • /
    • v.9 no.6
    • /
    • pp.45-50
    • /
    • 2023
  • In software development, the elicitation and analysis of requirements is a crucial phase, and it involves considerable time and effort due to the involvement of various stakeholders. ChatGPT, having been trained on a diverse array of documents, is a large language model that possesses not only the ability to generate code and perform debugging but also the capability to be utilized in the domain of software analysis and design. This paper proposes a method of requirements engineering that leverages ChatGPT's capabilities for eliciting software requirements, analyzing them to align with system goals, and documenting them in the form of use cases. In software requirements engineering, it suggests that stakeholders, analysts, and ChatGPT should engage in a collaborative model. The process should involve using the outputs of ChatGPT as initial requirements, which are then reviewed and augmented by analysts and stakeholders. As ChatGPT's capability improves, it is anticipated that the accuracy of requirements elicitation and analysis will increase, leading to time and cost savings in the field of software requirements engineering.

A Design of an Intelligent English Vocabulary Learning System based on Context and Vocabulary Group (문맥 및 어휘 그룹 기반 지능형 영어 어휘 학습 시스템 설계)

  • Kim, Do-Hyeon;Ok, Jun-Hyuk;Jang, Hong-Jun;Hwang, Yohan;Kim, Byoungwook
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.88-90
    • /
    • 2022
  • 영어 교육 시장이 증대되면서 영어 학습을 효과적으로 지원하는 다양한 학습 시스템들이 개발되고 있다. 영어문장을 구성하는 기본적인 단위는 어휘로 문장 전체의 의미를 파악하기 위해서는 어휘의 의미를 이해하는 것이 필수적이다. 따라서 영어 어휘 능력 향상을 위한 다양한 영어 어휘 학습 시스템들이 개발되고 있으나, 어휘가 사용되는 문맥을 고려하거나 동시에 학습하면 효과적인 어휘 등 어휘 학습에 효과적인 교수학습 방법의 원리가 적용된 영어 어휘 학습 시스템에 대한 연구는 미비한 상황이다. 본 논문에서는 n 개의 영어 단어가 하나의 그룹으로 동시에 제시되면서 그 n개의 영어 단어가 모두 포함된 예문을 제공하는 지능형 영어 어휘 학습 시스템을 설계한다. 임의로 n 개의 영어 어휘가 주어졌을 경우 문맥에 맞게 영어 예문을 자동으로 생성하는 지능형 영어 문장 생성 모델이 본 연구의 핵심이다. 또한, 어휘 능력 평가에서 기존 어휘 학습 시스템과 같이 단순히 어휘를 얼마나 암기하고 있는지에 대한 평과 결과만을 제시하는 것이 아니라, 그룹별 취약 어휘 분석을 통해 효과적인 그룹 어휘 선택 규칙을 파악할 수 있는 기반을 마련하고자 한다. 본 논문에서 제안한 지능형 영어 어휘 학습 시스템을 통해 영어 어휘 학습자들의 학습 능력 향상에 도움이 될 것으로 기대한다.

An Implementation of Group Objects in CORBA (CORBA상에서의 그룹객체의 구현에 관한 연구)

  • Ryu, Gi-Yeol;Lee, Jeong-Tae;Byeon, Gwang-Jun
    • The Transactions of the Korea Information Processing Society
    • /
    • v.6 no.1
    • /
    • pp.234-246
    • /
    • 1999
  • As an application software in distributed computing environment becomes large, the number of objects to be created increases drastically and the interfaces among them become very complex, The concept of group object resolves this problem to some extent by grouping a set of related objects, encapsulating them and controlling their interfaces systematically. In this paper, we propose an implementation model f the group object concept in CORBA, which is a standard middle ware for developing distributed application software on heterogeneous networks. To support group objects we extends CORBA ORB without modifying its internal structure for the compatibility with existing CORBA applications. And we devise an interface definition language by extending CORBA IDL to describe group objects in a language-independent style, which is one of the most important characteristics in CORBA. Finally, we experiment the implementation model on a CORBA ORB compliant product which supports the Java language.

  • PDF

Document Classification Methodology Using Autoencoder-based Keywords Embedding

  • Seobin Yoon;Namgyu Kim
    • Journal of the Korea Society of Computer and Information
    • /
    • v.28 no.9
    • /
    • pp.35-46
    • /
    • 2023
  • In this study, we propose a Dual Approach methodology to enhance the accuracy of document classifiers by utilizing both contextual and keyword information. Firstly, contextual information is extracted using Google's BERT, a pre-trained language model known for its outstanding performance in various natural language understanding tasks. Specifically, we employ KoBERT, a pre-trained model on the Korean corpus, to extract contextual information in the form of the CLS token. Secondly, keyword information is generated for each document by encoding the set of keywords into a single vector using an Autoencoder. We applied the proposed approach to 40,130 documents related to healthcare and medicine from the National R&D Projects database of the National Science and Technology Information Service (NTIS). The experimental results demonstrate that the proposed methodology outperforms existing methods that rely solely on document or word information in terms of accuracy for document classification.

A Term Cluster Query Expansion Model Based on Classification Information of Retrieval Documents (검색 문서의 분류 정보에 기반한 용어 클러스터 질의 확장 모델)

  • Kang, Hyun-Su;Kang, Hyun-Kyu;Park, Se-Young;Lee, Yong-Seok
    • Annual Conference on Human and Language Technology
    • /
    • 1999.10e
    • /
    • pp.7-12
    • /
    • 1999
  • 정보 검색 시스템은 사용자 질의의 키워드들과 문서들의 유사성(similarity)을 기준으로 관련 문서들을 순서화하여 사용자에게 제공한다. 그렇지만 인터넷 검색에 사용되는 질의는 일반적으로 짧기 때문에 보다 유용한 질의를 만들고자 하는 노력이 지금까지 계속되고 있다. 그러나 키워드에 포함된 정보가 제한적이기 때문에 이에 대한 보완책으로 사용자의 적합성 피드백을 이용하는 방법을 널리 사용하고 있다. 본 논문에서는 일반적인 적합성 피드백의 가장 큰 단점인 빈번한 사용자 참여는 지양하고, 시스템에 기반한 적합성 피드백에서 배제한 사용자 참여를 유도하는 검색 문서의 분류 정보에 기반한 용어 클러스터 질의 확장 모델(Term Cluster Query Expansion Model)을 제안한다. 이 방법은 검색 시스템에 의해 검색된 상위 n개의 문서에 대하여 분류기를 이용하여 각각의 문서에 분류 정보를 부여하고, 문서에 부여된 분류 정보를 이용하여 분류 정보의 수(m)만큼으로 문서들을 그룹을 짓는다. 적합성 피드백 알고리즘을 이용하여 m개의 그룹으로부터 각각의 용어 클러스터(Term Cluster)를 생성한다. 이 클러스터가 사용자에게 문서 대신에 피드백의 자료로 제공된다. 실험 결과, 적합성 알고리즘 중 Rocchio방법을 이용할 때 초기 질의보다 나은 성능을 보였지만, 다른 연구에서 보여준 성능 향상은 나타내지 못했다. 그 이유는 분류기의 오류와 문서의 특성상 한 영역으로 규정짓기 어려운 문서가 존재하기 때문이다. 그러나 검색하고자 하는 사용자의 관심 분야나 찾고자 하는 성향이 다르더라도 시스템에 종속되지 않고 유연하게 대처하며 검색 성능(retrieval effectiveness)을 향상시킬 수 있다.사용되고 있어 적응에 문제점을 가지기도 하였다. 본 연구에서는 그 동안 계속되어 온 한글과 한잔의 사용에 관한 논쟁을 언어심리학적인 연구 방법을 통해 조사하였다. 즉, 글을 읽는 속도, 글의 의미를 얼마나 정확하게 이해했는지, 어느 것이 더 기억에 오래 남는지를 측정하여 어느 쪽의 입장이 옮은 지를 판단하는 것이다. 실험 결과는 문장을 읽는 시간에서는 한글 전용문인 경우에 월등히 빨랐다. 그러나. 내용에 대한 기억 검사에서는 국한 혼용 조건에서 더 우수하였다. 반면에, 이해력 검사에서는 천장 효과(Ceiling effect)로 두 조건간에 차이가 없었다. 따라서, 본 실험 결과에 따르면, 글의 읽기 속도가 중요한 문서에서는 한글 전용이 좋은 반면에 글의 내용 기억이 강조되는 경우에는 한자를 혼용하는 것이 더 효율적이다.이 높은 활성을 보였다. 7. 이상을 종합하여 볼 때 고구마 끝순에는 페놀화합물이 다량 함유되어 있어 높은 항산화 활성을 가지며, 아질산염소거능 및 ACE저해활성과 같은 생리적 효과도 높아 기능성 채소로 이용하기에 충분한 가치가 있다고 판단된다.등의 관련 질환의 예방, 치료용 의약품 개발과 기능성 식품에 효과적으로 이용될 수 있음을 시사한다.tall fescue 23%, Kentucky bluegrass 6%, perennial ryegrass 8%) 및 white clover 23%를 유지하였다. 이상의 결과를 종합할 때, 초종과 파종비율에 따른 혼파초지의 건물수량과 사료가치의 차이를 확인할 수 있었으며, 레드 클로버 + 혼파 초지가 건물수량과 사료가치를 높이는데 효과적이었다.\ell}$ 이었으며 , yeast extract 첨가(添加)하여 배양시(培養時)는 yeast extract

  • PDF

Component Modeling Focusing on View-point of Component Use (사용 관점 중심의 컴포넌트 모델링)

  • Kim, Tae-Woong;Kim, Kyung-Min;Kim, Tae-Gong
    • The KIPS Transactions:PartD
    • /
    • v.14D no.2
    • /
    • pp.181-190
    • /
    • 2007
  • In component based development, component modeling for understanding and analyzing is the important part and is used to improve reusability. Generally, components are need to be divided into two types according to their usages, where the developer and assembler are usually different. To make a good component model, a complete component and interface specification for those components are needed. And the component model needs to adept two different views of developer and assembler. In this paper, we suggest two different views of component model that is related to views from developer and assembler, and we expand UML. Also we validate the efficiency of the suggested model by developing and applying a tool for building, managing and automatic transformation.

Using similarity based image caption to aid visual question answering (유사도 기반 이미지 캡션을 이용한 시각질의응답 연구)

  • Kang, Joonseo;Lim, Changwon
    • The Korean Journal of Applied Statistics
    • /
    • v.34 no.2
    • /
    • pp.191-204
    • /
    • 2021
  • Visual Question Answering (VQA) and image captioning are tasks that require understanding of the features of images and linguistic features of text. Therefore, co-attention may be the key to both tasks, which can connect image and text. In this paper, we propose a model to achieve high performance for VQA by image caption generated using a pretrained standard transformer model based on MSCOCO dataset. Captions unrelated to the question can rather interfere with answering, so some captions similar to the question were selected to use based on a similarity to the question. In addition, stopwords in the caption could not affect or interfere with answering, so the experiment was conducted after removing stopwords. Experiments were conducted on VQA-v2 data to compare the proposed model with the deep modular co-attention network (MCAN) model, which showed good performance by using co-attention between images and text. As a result, the proposed model outperformed the MCAN model.

2차원 중성자수송모델 합성법에 의한 노외계측기 교정법

  • 하창주;성기봉;이해찬;유상근;정선교;이덕중;김윤호;김용배
    • Proceedings of the Korean Nuclear Society Conference
    • /
    • 1997.10a
    • /
    • pp.335-341
    • /
    • 1997
  • 운전중 노심의 출력변화를 감시하는 노외계측기(Excore Detector)는 노내계측기(Incore Detector)를 통하여 측정되어진 축방향 출력편차(Axial Offset)를 이용하여 교정되고 있다. 노외 계측기의 전류와 축방향출력편차의 선형적인 관계를 가정하여 노내계측기로 최소한 4회 노심출력을 측정한후 최소자승법(Least Square Method)으로 비례상수들을 구하는 기존의 방법을 대신하여, 단순 노외계측기 교정법은 노내계측기로 1회 측정되어진 자료들을 이용하여 계측기 반응상수(Detector Response Factor)를 계산한 후 비례상수를 계산한다. 계측기반응상수는 2차원 중성자수송모델로부터 계산된 weighting factor와 3차원 확산이론으로부터 구한 노심출력을 이용하여 계산된다. 중성자수송계산은 (R-Z)와 (R-$ heta$)모델을 합성하여 3차원 weighting factor를 계산하므로 축방향 영향뿐만 아니라 집합체별 영향을 고려하였다. 또한 노심의 복잡한 구조로 인하여 근사적인 weighting (actor와 노심출력분포의 사용은 노외계측기의 전류와 계측기반응율의 불일치를 초래하며, 이를 해결하는 상수를 소개하여 보다 정확한 교정결과를 얻도록하였다. 이와 같은 방법을 고리 3호기 9, 10주기 전주기와 11주기초에 적용하여 노심의 연소분포, 냉각수의 온도분포, 노심의 연소도, 노심출력준위등에 대한 단순 노외계측기 교정법의 오차를 분석하여 최적의 노외계측기 교정모델을 제시하였다. 2차원 중성자수송모델 합성법에 의한 단순노외계측기 교정법은 2차원 (R-Z) 중성자수송모델보다 개선된 결과와 평균오차 0.179% 최대 오차 0.624%를 보여주고 있다.하면 조사 후의 조직안정성에도 크게 기여할 것으로 기대된다.EX>O가 각각 첨가된 경우, Ar-4vol.%H$_2$ 분위기보다 H$_2$분위기에서 소결했을 때 밀도가 더 높았다. 그러나, 결정립은 $UO_2$$UO_2$-Li$_2$O의 경우, 수소분위기에서 소결했을 때, (U,Ce)O$_2$와 (U,Ce)O$_2$-Li$_2$O에서는 Ar-4vol.%H$_2$분위기에서 소결했을 때 더욱 성장하였다.설명해 줄 수 있다. 넷째, 불규칙적이며 종잡기 힘들고 단편적인 것으로만 보이던 중간언어도 일정한 체계 속에서 변화한다는 사실을 알 수 있다. 다섯째, 종전의 오류 분석에서는 지나치게 모국어의 영향만 강조하고 다른 요인들에 대해서는 다분히 추상적인 언급으로 끝났지만 이 분석을 통 해서 배경어, 목표어, 특히 중간규칙의 역할이 괄목할 만한 것임을 가시적으로 관찰할 수 있 다. 이와 같은 오류분석 방법은 학습자의 모국어 및 관련 외국어의 음운규칙만 알면 어느 학습대상 외국어에라도 적용할 수 있는 보편성을 지니는 것으로 사료된다.없다. 그렇다면 겹의문사를 [-wh]의리를 지 닌 의문사의 병렬로 분석할 수 없다. 예를 들어 누구누구를 [주구-이-ν가] [누구누구-이- ν가]로부터 생성되었다고 볼 수 없다. 그러므로 [-wh] 겹의문사는 복수 의미를 지닐 수 없 다. 그러면 단수 의미는 어떻게 생성되는가\ulcorner 본 논문에서는 표면적 형태에도 불구하고 [-wh]의미의 겹의문사는 병렬적 관계의 합성어가 아니라 내부구조를 지

  • PDF

A Wrapper Design Methodology Based On IPCs (IPC에 근거한 래퍼 설계 방법론)

  • Yun, Chang-Ryul;Jhang, Kyoung-Son
    • The KIPS Transactions:PartA
    • /
    • v.9A no.4
    • /
    • pp.573-580
    • /
    • 2002
  • Reusing IPs requires interface protocol related tasks such as writing test benches and designing interface protocol conversion circuits, e.g. wrappers for IPs. The results of those tasks usually include IPC(interface protocol component)s for the corresponding IPs, similar to bus protocol components of the bus functional models. This paper proposes a methodology for the interface circuit design using synthesizable In that can be re-used. IPC recognizes or executes transactions over the given interface ports. So we present a transaction-oriented interface protocol description language, and a method to convert the description into an IPC in synthesizable VHDL code. With experiments, we show that the interface design using IPC does not cause significant area overhead compared with the interface design without IPC. The proposed IPC-based approach can be employed to reduce the interface design time since the designers can reuse IPCs without understanding the detailed interface protocols.

Analyzing Korean Math Word Problem Data Classification Difficulty Level Using the KoEPT Model (KoEPT 기반 한국어 수학 문장제 문제 데이터 분류 난도 분석)

  • Rhim, Sangkyu;Ki, Kyung Seo;Kim, Bugeun;Gweon, Gahgene
    • KIPS Transactions on Software and Data Engineering
    • /
    • v.11 no.8
    • /
    • pp.315-324
    • /
    • 2022
  • In this paper, we propose KoEPT, a Transformer-based generative model for automatic math word problems solving. A math word problem written in human language which describes everyday situations in a mathematical form. Math word problem solving requires an artificial intelligence model to understand the implied logic within the problem. Therefore, it is being studied variously across the world to improve the language understanding ability of artificial intelligence. In the case of the Korean language, studies so far have mainly attempted to solve problems by classifying them into templates, but there is a limitation in that these techniques are difficult to apply to datasets with high classification difficulty. To solve this problem, this paper used the KoEPT model which uses 'expression' tokens and pointer networks. To measure the performance of this model, the classification difficulty scores of IL, CC, and ALG514, which are existing Korean mathematical sentence problem datasets, were measured, and then the performance of KoEPT was evaluated using 5-fold cross-validation. For the Korean datasets used for evaluation, KoEPT obtained the state-of-the-art(SOTA) performance with 99.1% in CC, which is comparable to the existing SOTA performance, and 89.3% and 80.5% in IL and ALG514, respectively. In addition, as a result of evaluation, KoEPT showed a relatively improved performance for datasets with high classification difficulty. Through an ablation study, we uncovered that the use of the 'expression' tokens and pointer networks contributed to KoEPT's state of being less affected by classification difficulty while obtaining good performance.