• Title/Summary/Keyword: AI 모델

Search Result 1,308, Processing Time 0.028 seconds

Knowledge Transfer in Multilingual LLMs Based on Code-Switching Corpora (코드 스위칭 코퍼스 기반 다국어 LLM의 지식 전이 연구)

  • Seonghyun Kim;Kanghee Lee;Minsu Jeong;Jungwoo Lee
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.301-305
    • /
    • 2023
  • 최근 등장한 Large Language Models (LLM)은 자연어 처리 분야에서 눈에 띄는 성과를 보여주었지만, 주로 영어 중심의 연구로 진행되어 그 한계를 가지고 있다. 본 연구는 사전 학습된 LLM의 언어별 지식 전이 가능성을 한국어를 중심으로 탐구하였다. 이를 위해 한국어와 영어로 구성된 코드 스위칭 코퍼스를 구축하였으며, 기본 모델인 LLAMA-2와 코드 스위칭 코퍼스를 추가 학습한 모델 간의 성능 비교를 수행하였다. 결과적으로, 제안하는 방법론으로 학습한 모델은 두 언어 간의 희미론적 정보가 효과적으로 전이됐으며, 두 언어 간의 지식 정보 연계가 가능했다. 이 연구는 다양한 언어와 문화를 반영하는 다국어 LLM 연구와, 소수 언어를 포함한 AI 기술의 확산 및 민주화에 기여할 수 있을 것으로 기대된다.

  • PDF

Security Threats to Enterprise Generative AI Systems and Countermeasures (기업 내 생성형 AI 시스템의 보안 위협과 대응 방안)

  • Jong-woan Choi
    • Convergence Security Journal
    • /
    • v.24 no.2
    • /
    • pp.9-17
    • /
    • 2024
  • This paper examines the security threats to enterprise Generative Artificial Intelligence systems and proposes countermeasures. As AI systems handle vast amounts of data to gain a competitive edge, security threats targeting AI systems are rapidly increasing. Since AI security threats have distinct characteristics compared to traditional human-oriented cybersecurity threats, establishing an AI-specific response system is urgent. This study analyzes the importance of AI system security, identifies key threat factors, and suggests technical and managerial countermeasures. Firstly, it proposes strengthening the security of IT infrastructure where AI systems operate and enhancing AI model robustness by utilizing defensive techniques such as adversarial learning and model quantization. Additionally, it presents an AI security system design that detects anomalies in AI query-response processes to identify insider threats. Furthermore, it emphasizes the establishment of change control and audit frameworks to prevent AI model leakage by adopting the cyber kill chain concept. As AI technology evolves rapidly, by focusing on AI model and data security, insider threat detection, and professional workforce development, companies can improve their digital competitiveness through secure and reliable AI utilization.

A Study on Robustness Evaluation and Improvement of AI Model for Malware Variation Analysis (악성코드 변종 분석을 위한 AI 모델의 Robust 수준 측정 및 개선 연구)

  • Lee, Eun-gyu;Jeong, Si-on;Lee, Hyun-woo;Lee, Tea-jin
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.32 no.5
    • /
    • pp.997-1008
    • /
    • 2022
  • Today, AI(Artificial Intelligence) technology is being extensively researched in various fields, including the field of malware detection. To introduce AI systems into roles that protect important decisions and resources, it must be a reliable AI model. AI model that dependent on training dataset should be verified to be robust against new attacks. Rather than generating new malware detection, attackers find malware detection that succeed in attacking by mass-producing strains of previously detected malware detection. Most of the attacks, such as adversarial attacks, that lead to misclassification of AI models, are made by slightly modifying past attacks. Robust models that can be defended against these variants is needed, and the Robustness level of the model cannot be evaluated with accuracy and recall, which are widely used as AI evaluation indicators. In this paper, we experiment a framework to evaluate robustness level by generating an adversarial sample based on one of the adversarial attacks, C&W attack, and to improve robustness level through adversarial training. Through experiments based on malware dataset in this study, the limitations and possibilities of the proposed method in the field of malware detection were confirmed.

A Survey on On-Device DL-Model Optimization Techniques (온디바이스에서의 딥러닝 모델 최적화 기법 동향)

  • Se-Hyeon Yoon;Sang-Hyun Choi;Hyunyoung Oh
    • Annual Conference of KIPS
    • /
    • 2024.10a
    • /
    • pp.32-33
    • /
    • 2024
  • 온디바이스 환경에서 딥러닝 모델 최적화는 필수적이지만, 제한된 자원으로 고성능 모델을 직접 적용하는 데에는 한계가 있다. 본 논문에서는 이를 극복하기 위한 주요 기법인 가지치기, 양자화, 지식 증류, 신경망 아키텍처 탐색 및 이들의 결합 기법을 소개하고 분석한다. 각 기법의 정의와 특징, 적용 사례를 통해 성능 향상과 자원 효율성을 극대화하는 방법을 제시하며, 이를 바탕으로 최근 연구 동향을 소개한다.

Adversarial Examples for Robust Reading Comprehension (강건한 질의응답 모델을 위한 데이터셋 증강 기법)

  • Jang, Hansol;Jun, Changwook;Choi, Jooyoung;Sim, Myoseop;Kim, Hyun;Min, Kyungkoo
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.41-46
    • /
    • 2021
  • 기계 독해는 문단과 질문이 주어질 때에 정답을 맞추는 자연어처리의 연구분야다. 최근 기계 독해 모델이 사람보다 높은 성능을 보여주고 있지만, 문단과 질의가 크게 변하지 않더라도 예상과 다른 결과를 만들어 성능에 영향을 주기도 한다. 본 논문에서는 문단과 질문 두 가지 관점에서 적대적 예시 데이터를 사용하여 보다 강건한 질의응답 모델을 훈련하는 방식을 제안한다. 트랜스포머 인코더 모델을 활용하였으며, 데이터를 생성하기 위해서 KorQuAD 1.0 데이터셋에 적대적 예시를 추가하여 실험을 진행하였다. 적대적 예시를 이용한 데이터로 실험한 결과, 기존 모델보다 1% 가량 높은 성능을 보였다. 또한 질의의 적대적 예시 데이터를 활용하였을 때, 기존 KorQuAD 1.0 데이터에 대한 성능 향상을 확인하였다.

  • PDF

Pre-trained Language Model for Table Question and Answering (표 질의응답을 위한 언어 모델 학습 및 데이터 구축)

  • Sim, Myoseop;Jun, Changwook;Choi, Jooyoung;Kim, Hyun;Jang, Hansol;Min, Kyungkoo
    • Annual Conference on Human and Language Technology
    • /
    • 2021.10a
    • /
    • pp.335-339
    • /
    • 2021
  • 기계독해(MRC)는 인공지능 알고리즘이 문서를 이해하고 질문에 대한 정답을 찾는 기술이다. MRC는 사전 학습 모델을 사용하여 높은 성능을 내고 있고, 일반 텍스트문서 뿐만 아니라 문서 내의 테이블(표)에서도 정답을 찾고자 하는 연구에 활발히 적용되고 있다. 본 연구에서는 기존의 사전학습 모델을 테이블 데이터에 활용하여 질의응답을 할 수 있는 방법을 제안한다. 더불어 테이블 데이터를 효율적으로 학습하기 위한 데이터 구성 방법을 소개한다. 사전학습 모델은 BERT[1]를 사용하여 테이블 정보를 인코딩하고 Masked Entity Recovery(MER) 방식을 사용한다. 테이블 질의응답 모델 학습을 위해 한국어 위키 문서에서 표와 연관 텍스트를 추출하여 사전학습을 진행하였고, 미세 조정은 샘플링한 테이블에 대한 질문-답변 데이터 약 7만건을 구성하여 진행하였다. 결과로 KorQuAD2.0 데이터셋의 테이블 관련 질문 데이터에서 EM 69.07, F1 78.34로 기존 연구보다 우수한 성능을 보였다.

  • PDF

Question Answering that leverage the inherent knowledge of large language models (거대 언어 모델의 내재된 지식을 활용한 질의 응답 방법)

  • Myoseop Sim;Kyungkoo Min;Minjun Park;Jooyoung Choi;Haemin Jung;Stanley Jungkyu Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2023.10a
    • /
    • pp.31-35
    • /
    • 2023
  • 최근에는 질의응답(Question Answering, QA) 분야에서 거대 언어 모델(Large Language Models, LLMs)의 파라미터에 내재된 지식을 활용하는 방식이 활발히 연구되고 있다. Open Domain QA(ODQA) 분야에서는 기존에 정보 검색기(retriever)-독해기(reader) 파이프라인이 주로 사용되었으나, 최근에는 거대 언어 모델이 독해 뿐만 아니라 정보 검색기의 역할까지 대신하고 있다. 본 논문에서는 거대 언어 모델의 내재된 지식을 사용해서 질의 응답에 활용하는 방법을 제안한다. 질문에 대해 답변을 하기 전에 질문과 관련된 구절을 생성하고, 이를 바탕으로 질문에 대한 답변을 생성하는 방식이다. 이 방법은 Closed-Book QA 분야에서 기존 프롬프팅 방법 대비 우수한 성능을 보여주며, 이를 통해 대형 언어 모델에 내재된 지식을 활용하여 질의 응답 능력을 향상시킬 수 있음을 입증한다.

  • PDF

An Investigation Into the Effects of AI-Based Chemistry I Class Using Classification Models (분류 모델을 활용한 AI 기반 화학 I 수업의 효과에 대한 연구)

  • Heesun Yang;Seonghyeok Ahn;Seung-Hyun Kim;Seong-Joo Kang
    • Journal of the Korean Chemical Society
    • /
    • v.68 no.3
    • /
    • pp.160-175
    • /
    • 2024
  • The purpose of this study is to examine the effects of a Chemistry I class based on an artificial intelligence (AI) classification model. To achieve this, the research investigated the development and application of a class utilizing an AI classification model in Chemistry I classes conducted at D High School in Gyeongbuk during the first semester of 2023. After selecting the curriculum content and AI tools, and determining the curriculum-AI integration education model as well as AI hardware and software, we developed detailed activities for the program and applied them in actual classes. Following the implementation of the classes, it was confirmed that students' self-efficacy improved in three aspects: chemistry concept formation, AI value perception, and AI-based maker competency. Specifically, the chemistry classes based on text and image classification models had a positive impact on students' self-efficacy for chemistry concept formation, enhanced students' perception of AI value and interest, and contributed to improving students' AI and physical computing abilities. These results demonstrate the positive impact of the Chemistry I class based on an AI classification model on students, providing evidence of its utility in educational settings.

DBERT: Embedding Model Based on Contrastive Learning Considering the Characteristics of Multi-turn Context (DBERT: 멀티턴 문맥의 특징을 고려한 대조 학습 기반의 임베딩 모델링)

  • Sangmin Park;Jaeyun Lee;Jaieun Kim
    • Annual Conference on Human and Language Technology
    • /
    • 2022.10a
    • /
    • pp.272-274
    • /
    • 2022
  • 최근에는 사람과 기계가 자유롭게 대화를 주고받을 수 있는 자유 주제 대화 시스템(Open-domain Dialogue System)이 다양한 서비스에 활용되고 있다. 자유 주제 대화 시스템이 더욱 다양한 답변을 제공할 수 있도록 사전학습 기반의 생성 언어모델이 활용되고 있지만, 답변 제공의 안정성이 떨어져 검색을 활용한 방법 또한 함께 활용되고 있다. 검색 기반 방법은 사용자의 대화가 들어오면 사전에 구축된 데이터베이스에서 유사한 대화를 검색하고 준비되어있는 답변을 제공하는 기술이다. 하지만 멀티턴으로 이루어진 대화는 일반적인 문서의 문장과 다르게 각 문장에 대한 발화의 주체가 변경되기 때문에 연속된 발화 문장이 문맥적으로 밀접하게 연결되지 않는 경우가 있다. 본 논문에서는 이와 같은 대화의 특징을 고려하여 멀티턴 대화를 효율적으로 임베딩 할 수 있는 DBERT(DialogueBERT) 모델을 제안한다. 기존 공개된 사전학습 언어모델 기반의 문장 임베딩 모델과 비교 평가 실험을 통해 제안하는 방법의 우수성을 입증한다.

  • PDF

Implementation of Sensor Big Data Query Processing System for AI model training and inference of Power Turbine Equipment Failure Estimation (발전소 고장 예측 AI 모델 학습 및 추론을 위한 센서 빅데이터 질의 처리 시스템 구현)

  • Um, Jung-Ho;Yu, Chan Hee;Kim, Yuseon;Park, Kyongseok
    • Annual Conference of KIPS
    • /
    • 2021.11a
    • /
    • pp.545-547
    • /
    • 2021
  • 발전시설 장비는 이상이 생기면 큰 경제적 피해를 발생시키기 때문에, 장비의 계통마다 수십만 개의 센서들이 부착되어 장비의 정상 작동 여부를 모니터링 한다. 장비의 이상 감지를 위해서, 최근 활발히 연구되고 있는 딥러닝 등의 기술을 활용한 AI 모델을 생성하여 장비의 고장을 예측한다. AI 모델을 학습하고 추론하기 위해서는 수많은 센서 중에서 AI 모델을 생성할 센서들을 선택하고, 지속적으로 모니터링 되는 값들을 비교하여 이상 감지 여부를 스트리밍 환경에서 추론할 수 있는 센서 빅데이터 질의 처리 및 스트리밍 추론 시스템이 필요하다. 본 논문에서는 AI 모델을 학습하고 스트리밍 추론할 수 있는 빅데이터 질의 처리 시스템을 설계 및 구현한다.