• 제목/요약/키워드: AI threats

검색결과 70건 처리시간 0.024초

기업 내 생성형 AI 시스템의 보안 위협과 대응 방안 (Security Threats to Enterprise Generative AI Systems and Countermeasures)

  • 최정완
    • 융합보안논문지
    • /
    • 제24권2호
    • /
    • pp.9-17
    • /
    • 2024
  • 본 논문은 기업 내 생성형 AI(Generative Artificial Intelligence) 시스템의 보안 위협과 대응 방안을 제시한다. AI 시스템이 방대한 데이터를 다루면서 기업의 핵심 경쟁력을 확보하는 한편, AI 시스템을 표적으로 하는 보안 위협에 대비해야 한다. AI 보안 위협은 기존 사람을 타겟으로 하는 사이버 보안 위협과 차별화된 특징을 가지므로, AI에 특화된 대응 체계 구축이 시급하다. 본 연구는 AI 시스템 보안의 중요성과 주요 위협 요인을 분석하고, 기술적/관리적 대응 방안을 제시한다. 먼저 AI 시스템이 구동되는 IT 인프라 보안을 강화하고, AI 모델 자체의 견고성을 높이기 위해 적대적 학습 (adversarial learning), 모델 경량화(model quantization) 등 방어 기술을 활용할 것을 제안한다. 아울러 내부자 위협을 감지하기 위해, AI 질의응답 과정에서 발생하는 이상 징후를 탐지할 수 있는 AI 보안 체계 설계 방안을 제시한다. 또한 사이버 킬 체인 개념을 도입하여 AI 모델 유출을 방지하기 위한 변경 통제와 감사 체계 확립을 강조한다. AI 기술이 빠르게 발전하는 만큼 AI 모델 및 데이터 보안, 내부 위협 탐지, 전문 인력 육성 등에 역량을 집중함으로써 기업은 안전하고 신뢰할 수 있는 AI 활용을 통해 디지털 경쟁력을 제고할 수 있을 것이다.

The Threat of AI and Our Response: The AI Charter of Ethics in South Korea

  • Hwang, Ha;Park, Min-Hye
    • Asian Journal of Innovation and Policy
    • /
    • 제9권1호
    • /
    • pp.56-78
    • /
    • 2020
  • Changes in our lives due to Artificial Intelligence (AI) are currently ongoing, and there is little refutation of the effectiveness of AI. However, there have been active discussions to minimize the side effects of AI and use it responsibly, and publishing the AI Charter of Ethics (AICE) is one result of it. This study examines how our society is responding to threats from AI that may emerge in the future by examining various AIECs in the Republic of Korea. First, we summarize seven AI threats and classify these into three categories: AI's value judgment, malicious use of AI, and human alienation. Second, from Korea's seven AICEs, we draw fourteen topics based on three categories: protection of social values, AI control, and fostering digital citizenship. Finally, we review them based on the seven AI threats to evaluate any gaps between the threats and our responses. The analysis indicates that Korea has not yet been able to properly respond to the threat of AI's usurpation of human occupations (jobs). In addition, although Korea's AICEs present appropriate responses to lethal AI weapons, these provisions will be difficult to realize because the competition for AI weapons among military powers is intensifying.

챗봇서비스 구현 모델의 보안요구사항 분석 (Analysis of the Security Requirements of the Chatbot Service Implementation Model)

  • 조규민;이재일;신동규
    • 인터넷정보학회논문지
    • /
    • 제25권1호
    • /
    • pp.167-176
    • /
    • 2024
  • 챗봇서비스는 AI서비스와 연계하여 다양한 분야에서 활용되고 있다. AI에 대한 보안 연구는 초기 단계이고, 이를 이용한 서비스 구현단계에서의 실질적인 보안 연구는 더욱 부족한 상황이다. 본 논문은 AI서비스와 연계된 챗봇서비스에 대한 보안요구사항을 분석한다. 먼저, 본 논문에서는 최근 발표된 AI보안에 대한 논문과 자료들을 분석한다. 시장에서 서비스가 제공되는 있는 챗봇서비스를 조사하여 일반적인 구현 모델을 정립한다. 구현 모델에는 챗봇관리시스템과 AI엔진이 포함된 5개의 구성요소가 포함되어 있다. 정립된 모델에 기반하여 쳇봇서비스에 특화된 보호자산과 위협을 정리한다. 위협은 실제 운영중인 챗봇서비스 담당자 설문을 통해 챗봇서비스에 특화된 위협을 중심으로 정리한다. 10개의 주요 위협이 도출되었다. 정리된 위협에 대응하기 위해 필요한 보안 영역을 도출하였고, 영역별로 필요한 보안요구사항을 분석하였다. 이는 챗봇서비스 보안 수준을 검토하고 개선하는 과정에서 보안평가 기준으로 활용될 것이다.

인지지도분석을 활용한 AI SW 인력양성 정책분석 (Policy Analysis on AI SW Human Resources Development Using Cognitive Map Analysis)

  • 이중만
    • Journal of Information Technology Applications and Management
    • /
    • 제28권3호
    • /
    • pp.109-125
    • /
    • 2021
  • For the government of president Moon's AI SW HRD policy, he proclaimed AI democracy that anyone can utilize artificial intelligence technology to spread AI education for the people of the country. Through cognitive map analysis, this study presents expected policy outcomes due to the input of policy factors to overcome crisis factors and utilize opportunity factors. According to the cognitive guidance analysis, first, the opportunity factor is recognized as accelerating the digital transformation to Covid 19 if AI SW HRD is well nurtured. Second, the crisis factor refers to the rapid paradigm shift caused by the intelligence information society, resulting in job losses in the manufacturing sector and deepening imbalance in manpower supply and demand, especially in the artificial intelligence sector. Third, the comprehensive cognitive map shows a circular process for creating an AI SW ecosystem in response to threats caused by untact caused by Corona and a circular process for securing AI talent in response to threats caused by deepening imbalance in manpower supply and demand in the AI sector. Fourth, in order to accelerate the digital circulation that has been accelerated by Corona, we found a circular process to succeed in the Korean version of digital new deal by strengthening national and corporate competitiveness through AI-utilized capacity and industrial and regional AI education. Finally, the AI utilization empowerment strengthening rotation process is the most dominant of the four mechanisms, and we also found a relatively controllable feedback loop to obtain policy outputs.

AI 기반 국방정보시스템 개발 생명주기 단계별 보안 활동 수행 방안 (A Methodology for SDLC of AI-based Defense Information System)

  • 박규도;이영란
    • 정보보호학회논문지
    • /
    • 제33권3호
    • /
    • pp.577-589
    • /
    • 2023
  • 국방부는 국방혁신 4.0 계획에 기반한 첨단과학기술군 육성을 위해 AI를 향후 전력 증강의 핵심 기술로 활용할 계획이다. 그러나 AI의 특성에 따른 보안 위협은 AI 기반의 국방정보시스템에 실질적인 위협이 될 수 있다. 이를 해소하기 위해서는 최초 개발 단계에서부터 체계적인 보안 활동의 수행을 통한 보안 내재화가 필요하다. 이에 본 논문에서는 AI 기반 국방정보시스템 개발 시 단계별로 수행해야 하는 보안 활동 수행 방안을 제안한다. 이를 통해 향후 국방 분야에 AI 기술 적용에 따른 보안 위협을 예방하고 국방정보시스템의 안전성과 신뢰성을 확보하는데 기여할 수 있을 것으로 기대한다.

자율 운항 선박의 인공지능: 잠재적 사이버 위협과 보안 (Artificial Intelligence for Autonomous Ship: Potential Cyber Threats and Security)

  • 유지운;조용현;차영균
    • 정보보호학회논문지
    • /
    • 제32권2호
    • /
    • pp.447-463
    • /
    • 2022
  • 인공 지능(AI) 기술은 해양 산업에서 스마트 선박을 자율 운항 선박으로 발전시키는 주요 기술이다. 자율 운항 선박은 사람의 의사 판단 없이 수집된 정보로 상황을 인식하며 스스로 판단하여 운항한다. 기존의 선박 시스템은 육상에서의 제어 시스템과 마찬가지로 사이버 공격에 대한 보안성을 고려하여 설계되지 않았다. 이로 인해 선박 내·외부에서 수집되는 수많은 데이터에 대한 침해와 선박에 적용될 인공지능 기술에 대한 잠재적 사이버 위협이 존재한다. 자율 운항 선박의 안전성을 위해서는 선박 시스템의 사이버 보안뿐만 아니라, 인공지능 기술에 대한 사이버 보안에도 초점을 맞춰야 한다. 본 논문에서는 기존 선박 시스템과 자율 운항 선박에 적용될 인공지능 기술에 발생할 수 있는 잠재적인 사이버 위협을 분석하고, 자율 운항 선박 보안 위험과 보안이 필요한 범주를 도출했다. 도출한 결과를 바탕으로 향후 자율 운항 선박 사이버 보안 연구 방향을 제시하고 사이버 보안 향상에 기여한다.

화자식별 기반의 AI 음성인식 서비스에 대한 사이버 위협 분석 (Cyber Threats Analysis of AI Voice Recognition-based Services with Automatic Speaker Verification)

  • 홍천호;조영호
    • 인터넷정보학회논문지
    • /
    • 제22권6호
    • /
    • pp.33-40
    • /
    • 2021
  • 음성인식(ASR: Automatic Speech Recognition)은 사람의 말소리를 음성 신호로 분석하고, 문자열로 자동 변화하여 이해하는 기술이다. 초기 음성인식 기술은 하나의 단어를 인식하는 것을 시작으로 두 개 이상의 단어로 구성된 문장을 인식하는 수준까지 진화하였다. 실시간 음성 대화에 있어 높은 인식률은 자연스러운 정보전달의 편리성을 극대화하여 그 적용 범위를 확장하고 있다. 반면에, 음성인식 기술의 활발한 적용에 따라 관련된 사이버 공격과 위협에 대한 우려 역시 증가하고 있다. 기존 연구를 살펴보면, 자동화자식별(ASV: Automatic Speaker Verification) 기법의 고안과 정확성 향상 등 기술 발전 자체에 관한 연구는 활발히 이루어지고 있으나, 실생활에 적용되고 있는 음성인식 서비스의 자동화자 식별 기술에 대한 사이버 공격 및 위협에 관한 분석연구는 다양하고 깊이 있게 수행되지 않고 있다. 본 연구에서는 자동화자 식별 기술을 갖춘 AI 음성인식 서비스를 대상으로 음성 주파수와 음성속도를 조작하여 음성인증을 우회하는 사이버 공격 모델을 제안하고, 상용 스마트폰의 자동화자 식별 체계를 대상으로 실제 실험을 통해 사이버 위협을 분석한다. 이를 통해 관련 사이버 위협의 심각성을 알리고 효과적인 대응 방안에 관한 연구 관심을 높이고자 한다.

AI 스피커의 보안성 평가 및 대응방안 연구 (Study on the AI Speaker Security Evaluations and Countermeasure)

  • 이지섭;강수영;김승주
    • 정보보호학회논문지
    • /
    • 제28권6호
    • /
    • pp.1523-1537
    • /
    • 2018
  • AI 스피커는 간단한 동작으로 음악재생, 온라인 검색 등 사용자에게 유용한 기능을 제공하고 있으며, 이에 따라 AI 스피커 시장은 현재 매우 빠른 속도로 성장하고 있다. 그러나 AI 스피커는 항시 사용자의 음성을 대기하고 있어 보안 위협에 노출될 경우 도청, 개인정보 노출 등 심각한 문제가 발생할 수 있다. 이에 모든 AI 스피커의 전반적으로 향상된 보안을 제공하기 위해 발생 가능한 보안 위협을 식별하고 체계적인 취약점 점검을 위한 방안이 필요하다. 본 논문에서는 점유율이 높은 제품 4개를 선정하여 보안위협모델링을 수행하였다. Data Flow Diagram, STRIDE, LINDDUN 위협모델링을 통해 체계적이고 객관적인 취약점 점검을 위한 체크리스트를 도출하였으며, 이후 체크리스트를 이용하여 실제 기기에 대한 취약점 점검을 진행하였다. 마지막으로 취약점 점검 결과 및 각 제품에 대한 취약점 비교 분석을 통해 AI 스피커의 보안성을 향상시킬 수 있는 방안을 제안하였다.

Malwares Attack Detection Using Ensemble Deep Restricted Boltzmann Machine

  • K. Janani;R. Gunasundari
    • International Journal of Computer Science & Network Security
    • /
    • 제24권5호
    • /
    • pp.64-72
    • /
    • 2024
  • In recent times cyber attackers can use Artificial Intelligence (AI) to boost the sophistication and scope of attacks. On the defense side, AI is used to enhance defense plans, to boost the robustness, flexibility, and efficiency of defense systems, which means adapting to environmental changes to reduce impacts. With increased developments in the field of information and communication technologies, various exploits occur as a danger sign to cyber security and these exploitations are changing rapidly. Cyber criminals use new, sophisticated tactics to boost their attack speed and size. Consequently, there is a need for more flexible, adaptable and strong cyber defense systems that can identify a wide range of threats in real-time. In recent years, the adoption of AI approaches has increased and maintained a vital role in the detection and prevention of cyber threats. In this paper, an Ensemble Deep Restricted Boltzmann Machine (EDRBM) is developed for the classification of cybersecurity threats in case of a large-scale network environment. The EDRBM acts as a classification model that enables the classification of malicious flowsets from the largescale network. The simulation is conducted to test the efficacy of the proposed EDRBM under various malware attacks. The simulation results show that the proposed method achieves higher classification rate in classifying the malware in the flowsets i.e., malicious flowsets than other methods.

ETRI AI 실행전략 7: AI로 인한 기술·사회적 역기능 방지 (ETRI AI Strategy #7: Preventing Technological and Social Dysfunction Caused by AI)

  • 김태완;최새솔;연승준
    • 전자통신동향분석
    • /
    • 제35권7호
    • /
    • pp.67-76
    • /
    • 2020
  • Because of the development and spread of artificial intelligence (AI) technology, new security threats and adverse AI functions have emerged as a real problem in the process of diversifying areas of use and introducing AI-based products and services to users. In response, it is necessary to develop new AI-based technologies in the field of information protection and security. This paper reviews topics such as domestic and international trends on false information detection technology, cyber security technology, and trust distribution platform technology, and it establishes the direction of the promotion of technology development. In addition, the development of international trends in ethical AI guidelines to ensure the human-centered ethical validity of AI development processes and final systems in parallel with technology development are analyzed and discussed. ETRI has developed AI policing technology, information protection, and security technologies as well as derived tasks and implementation strategies to prepare ethical AI development guidelines to ensure the reliability of AI based on its capabilities.