• 제목/요약/키워드: AI Privacy Policy

검색결과 18건 처리시간 0.023초

인공지능 시스템에서 개인정보 처리방침 수립을 위한 법적·기술적 요구사항 분석 연구 (A Legal and Technical Analysis for Establishing Privacy Policies on Artificial Intelligence Systems)

  • 전주현;이경현
    • 정보보호학회논문지
    • /
    • 제34권5호
    • /
    • pp.1115-1133
    • /
    • 2024
  • AI 기술의 급속한 발전과 더불어 AI 시스템에서 개인정보를 대량으로 수집,처리,활용하는 경우가 증가하고 있다. 이에 따라 AI 시스템의 개인정보 처리에 대한 투명성과 책임성, 정보주체 권리보장, 개인정보 침해 위험 최소화 등이 중요한 과제로 대두되고 있다. 그러나 기존 개인정보 처리방침에는 일반적인 개인정보 처리에 대한 내용만 공개되고 있으며, AI 시스템에 대한 개인정보 처리방침은 부재한 상황이다. 이러한 문제를 해결하기 위해 개인정보 보호법 개정에 따른 개인정보 처리방침 평가제 시행 대응과 함께 AI 시스템의 설계 및 개발, 운영 과정에서 개인정보 처리에 대한 AI 시스템 개인정보 처리방침 수립·공개를 새롭게 제안한다. 이를 통해 본 연구는 현행 개인정보 보호법상 자동화된 결정에 따른 정보주체의 설명요구권 및 거부권 행사 규정에도 보완적인 역할을 할 수 있을 것으로 기대된다.

인공지능 기반 음성비서 서비스의 지속이용 의도에 미치는 영향: 인공지능에 대한 신뢰와 프라이버시 염려의 상호작용을 중심으로 (Effects on the continuous use intention of AI-based voice assistant services: Focusing on the interaction between trust in AI and privacy concerns)

  • 장창기;허덕원;성욱준
    • 정보화정책
    • /
    • 제30권2호
    • /
    • pp.22-45
    • /
    • 2023
  • AI 기반 음성비서 서비스 이용에 관한 연구에서는 서비스 이용 경험으로 인한 이용자의 신뢰 및 프라이버시 보호와 관련된 문제가 지속적으로 제기되고 있다. 본 연구의 목적은 AI에 대한 개인의 신뢰와 온라인 프라이버시 염려가 AI 기반 음성비서의 지속적인 사용에 미치는 영향, 특히 상호 작용의 영향을 실증적으로 분석하는 것이다. 본 연구에서는 선행연구를 바탕으로 설문문항을 구성하고 응답자 405명을 대상으로 온라인 설문조사를 실시하였다. 인공지능에 대한 사용자의 신뢰와 개인정보보호 관심이 인공지능 기반 음성비서 서비스 도입 및 지속 이용의도에 미치는 영향을 Heckman 선택모형을 이용하여 분석하였다. 연구의 주요 결과로 첫째, 인공지능 기반 음성비서 서비스 이용행태는 기술수용 촉진요인인 지각된 유용성, 지각된 이용편의성, 사회적 영향에 의해 긍정적인 영향을 받았다. 둘째, 인공지능에 대한 신뢰는 인공지능 기반 음성비서 서비스 이용행태에 통계적으로 유의한 영향을 미치지 않았으나 지속 이용의도에는 정(+)의 영향을 미쳤다. 셋째, 프라이버시 염려 수준은 AI에 대한 신뢰와의 상호작용을 통해 지속적인 이용의도를 억제하는 효과(β=-0.153)가 있음을 확인하였다. 이러한 연구 결과는 디지털 정부를 구현하기 위한 거버넌스로서 기술에 대한 신뢰를 높이고 프라이버시에 대한 사용자의 우려를 완화할 수 있는 이용자 의견수렴과 조치를 통한 이용자 경험을 강화할 필요가 있음을 시사한다. 이러한 수단으로서 인공지능 기반의 정책서비스를 도입할 때, 인공지능 기술의 적용 범위를 공론화 과정을 통해 투명하게 공개하고, 프라이버시 문제가 사후적으로 추적 및 평가될 수 있는 제도의 마련과 프라이버시의 보호를 고려한 알고리즘의 개발이 필요하다.

초거대 인공지능 정책 변동과정에 관한 연구 : 옹호연합모형을 중심으로 (A Study on the Process of Policy Change of Hyper-scale Artificial Intelligence: Focusing on the ACF)

  • 최석원;이주연
    • 시스템엔지니어링학술지
    • /
    • 제18권2호
    • /
    • pp.11-23
    • /
    • 2022
  • Although artificial intelligence(AI) is a key technology in the digital transformation among the emerging technologies, there are concerns about the use of AI, so many countries have been trying to set up a proper regulation system. This study analyzes the cases of the regulation policies on AI in USA, EU and Korea with the aim to set up and improve proper AI policies and strategies in Korea. In USA, the establishment of the code of ethics for the use of AI is led by private sector. On the other side, Europe is strengthening competitiveness in the AI industry by consolidating regulations that are dispersed by EU members. Korea has also prepared and promoted policies for AI ethics, copyright and privacy protection at the national level and trying to change to a negative regulation system and improve regulations to close the gap between the leading countries and Korea in AI. Moreover, this study analyzed the course of policy changes of AI regulation policy centered on ACF(Advocacy Coalition Framework) model of Sabatier. Through this study, it proposes hyper-scale AI regulation policy recommendations for improving competitiveness and commercialization in Korea. This study is significant in that it can contribute to increasing the predictability of policy makers who have difficulties due to uncertainty and ambiguity in establishing regulatory policies caused by the emergence of hyper-scale artificial intelligence.

AI의 혜택 및 위험성 인식과 AI에 대한 태도, 정책 지지의 관계 (Perceptions of Benefits and Risks of AI, Attitudes toward AI, and Support for AI Policies)

  • 이자연
    • 한국콘텐츠학회논문지
    • /
    • 제21권4호
    • /
    • pp.193-204
    • /
    • 2021
  • 정부가 '전산업 AI 활용, 전국민 AI 교육'을 국가적 과제로 추진하고 있는 가운데, 본 연구는 설문 자료 분석을 통해 국민의 AI 정책에 대한 지지에 영향을 끼치는 요인들을 파악하고자 하였다. 구체적으로 위험-혜택 이론과 이중처리 이론에 기반해 사람들이 지각하는 AI의 상반된 특성들이 어떻게 혜택 및 위험성 인식으로 연결되며 AI에 대한 전반적 태도와 AI 산업 육성 및 교육 정책의 지지로 이어지는지 구조방정식 모형을 통해 탐색하고, 그 과정에서 혜택/위험성 인식 및 태도가 매개 변인으로서 기능하는지 살펴보았다. 분석 결과, AI의 알려진 특성들 가운데 인지된 유용성이 AI의 혜택 인식을 구성하는 주요소였으며 이 혜택 인식이 AI에 대한 태도를 거쳐 AI 정책 지지로 유의하게 이어진다는 점이 드러났다. 또한 혜택 인식과 AI에 대한 태도가 지각된 유용성을 AI 정책 지지로 잇는 매개 역할을 유의하게 수행하는 것을 알 수 있었다. 인지된 오락성은 AI에 대한 긍정적 태도로 유의하게 이어졌지만 AI의 혜택으로 인식되지는 않았다. 인지된 사생활 침해는 AI의 위험성 인식을 예측하는 주된 요인이었지만 위험성 인식은 AI에 대한 태도나 AI 정책 지지와 유의한 관계를 보이지 않았다. 결론적으로 AI 개발 지지 여부를 결정짓는 가장 강력한 요인은 혜택에 대한 인식이며, 혜택 인식을 유의하게 예측한다는 점에서 유용성 지각의 중요성을 알 수 있었다.

GPT를 활용한 개인정보 처리방침 안전성 검증 기법 (Safety Verification Techniques of Privacy Policy Using GPT)

  • 심혜연;권민서;윤다영;서지영;이일구
    • 정보보호학회논문지
    • /
    • 제34권2호
    • /
    • pp.207-216
    • /
    • 2024
  • 4차 산업혁명으로 인해 빅데이터가 구축됨에 따라 개인 맞춤형 서비스가 급증했다. 이로 인해 온라인 서비스에서 수집하는 개인정보의 양이 늘어났으며, 사용자들의 개인정보 유출 및 프라이버시 침해 우려가 높아졌다. 온라인 서비스 제공자들은 이용자들의 프라이버시 침해 우려를 해소하기 위해 개인정보 처리방침을 제공하고 있으나, 개인정보 처리방침은 길이가 길고 복잡하여 이용자가 직접 위험 항목을 파악하기 어려운 문제로 인해 오남용되는 경우가 많다. 따라서 자동으로 개인정보 처리방침이 안전한지 여부를 검사할 수 있는 방법이 필요하다. 그러나 종래의 블랙리스트 및 기계학습 기반의 개인정보 처리방침 안전성 검증 기법은 확장이 어렵거나 접근성이 낮은 문제가 있다. 본 논문에서는 문제를 해결하기위해 생성형 인공지능인 GPT-3.5 API를 이용한 개인정보 처리방침 안전성 검증 기법을 제안한다. 새로운 환경에서도 분류 작업을 수행할 수 있고, 전문 지식이 없는 일반인이 쉽게 개인정보 처리방침을 검사할 수 있다는 가능성을 보인다. 실험에서는 블랙리스트 기반 개인정보 처리방침과 GPT 기반 개인정보 처리방침이 안전한 문장과 안전하지 않은 문장의 분류를 얼마나 정확하게 하는지와 분류에 소요된 시간을 측정했다. 실험 결과에 따르면, 제안하는 기법은 종래의 블랙리스트 기반 문장 안전성 검증 기법보다 평균적으로 10.34% 높은 정확도를 보였다.

금융분야 AI의 윤리적 문제 현황과 해결방안

  • 이수련;이현정;이아람;최은정
    • 정보보호학회지
    • /
    • 제32권3호
    • /
    • pp.57-64
    • /
    • 2022
  • 우리 사회에서 AI 활용이 더욱 보편화 되어가고 있는 가운데 AI 신뢰에 대한 사회적 요구도 증가했다. 특히 최근 대화형 인공지능'이루다'사건으로 AI 윤리에 대한 논의가 뜨거워졌다. 금융 분야에서도 로보어드바이저, 보험 심사 등 AI가 다양하게 활용되고 있지만, AI 윤리 문제가 AI 활성화에 큰 걸림돌이 되고 있다. 본 논문에서는 인공지능으로 발생할 수 있는 윤리적 문제를 활용 도메인과 데이터 분석 파이프라인에 따라 나눈다. 금융 AI 기술 분야에 따른 윤리 문제를 분류했으며 각 분야별 윤리사례를 제시했고 윤리 문제 분류에 따른 대응 방안과 해외에서의 대응방식과 우리나라의 대응방식을 소개하며 해결방안을 제시했다. 본 연구를 통해 금융 AI 기술 발전에 더불어 윤리 문제에 대한 경각심을 고취시킬 수 있을 것으로 기대한다. 금융 AI 기술 발전이 AI 윤리와 조화를 이루며 성장하길 바라며, 금융 AI 정책 수립 시에도 AI 윤리적 문제를 염두해 두어 차별, 개인정보유출 등과 같은 AI 윤리 규범 미준수로 파생되는 문제점을 줄이며 금융분야 AI 활용이 더욱 활성화되길 기대한다.

Research on the evaluation model for the impact of AI services

  • Soonduck Yoo
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제15권3호
    • /
    • pp.191-202
    • /
    • 2023
  • This study aims to propose a framework for evaluating the impact of artificial intelligence (AI) services, based on the concept of AI service impact. It also suggests a model for evaluating this impact and identifies relevant factors and measurement approaches for each item of the model. The study classifies the impact of AI services into five categories: ethics, safety and reliability, compliance, user rights, and environmental friendliness. It discusses these five categories from a broad perspective and provides 21 detailed factors for evaluating each category. In terms of ethics, the study introduces three additional factors-accessibility, openness, and fairness-to the ten items initially developed by KISDI. In the safety and reliability category, the study excludes factors such as dependability, policy, compliance, and awareness improvement as they can be better addressed from a technical perspective. The compliance category includes factors such as human rights protection, privacy protection, non-infringement, publicness, accountability, safety, transparency, policy compliance, and explainability.For the user rights category, the study excludes factors such as publicness, data management, policy compliance, awareness improvement, recoverability, openness, and accuracy. The environmental friendliness category encompasses diversity, publicness, dependability, transparency, awareness improvement, recoverability, and openness.This study lays the foundation for further related research and contributes to the establishment of relevant policies by establishing a model for evaluating the impact of AI services. Future research is required to assess the validity of the developed indicators and provide specific evaluation items for practical use, based on expert evaluations.

스마트 에너지 개인정보 보호정책에 대한 연구 (A Study on Smart Energy's Privacy Policy)

  • 노종호;권헌영
    • 융합보안논문지
    • /
    • 제18권2호
    • /
    • pp.3-10
    • /
    • 2018
  • 기존의 전력망 중심의 스마트그리드는 최근 들어 스마트에너지로 표현되는 열과 가스 등 신에너지 및 재생에너지 중심으로 빠르게 확산되고 있다. 스마트에너지는 전기에너지와 상호작용을 통해 AI를 활용한 에너지 분석을 기반으로 IoT센서 기반의 유무선 네트워크로 연결되어 다양한 에너지 사업자와 고객들과 생태계를 빠르게 확장시켜 나가고 있다. 그러나, IoT기반의 스마트에너지는 정부와 사업자의 이해관계에 따라 시장 활성화 노력에 비해 보안에 대한 기술적, 제도적 준비가 많이 부족한 것이 현실이다. 본 연구에서는 스마트에너지의 개인정보 보호정책에 대해 융합ICT의 가치체계(CPND) 관점에서 제시해보고자 한다.

  • PDF

Meta's Metaverse Platform Design in the Pre-launch and Ignition Life Stage

  • Song, Minzheong
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제14권4호
    • /
    • pp.121-131
    • /
    • 2022
  • We look at the initial stage of Meta (previous Facebook)'s new metaverse platform and investigate its platform design in pre-launch and ignition life stage. From the Rocket Model (RM)'s theoretical logic, the results reveal that Meta firstly focuses on investing in key content developers by acquiring virtual reality (VR), video, music content firms and offering production support platform of the augmented reality (AR) content, 'Spark AR' last three years (2019~2021) for attracting high-potential developers and users. In terms of three matching criteria, Meta develops an Artificial Intelligence (AI) powered translation software, partners with Microsoft (MS) for cloud computing and AI, and develops an AI platform for realistic avatar, MyoSuite. In 'connect' function, Meta curates the game concept submitted by game developers, welcomes other game and SNS based metaverse apps, and expands Horizon Worlds (HW) on VR devices to PCs and mobile devices. In 'transact' function, Meta offers 'HW Creator Funding' program for metaverse, launches the first commercialized Meta Avatar Store on Meta's conventional SNS and Messaging apps by inviting all fashion creators to design and sell clothing in this store. Mata also launches an initial test of non-fungible token (NFT) display on Instagram and expands it to Facebook in the US. Lastly, regarding optimization, especially in the face of recent data privacy issues that have adversely affected corporate key performance indicators (KPIs), Meta assures not to collect any new data and to make its privacy policy easier to understand and update its terms of service more user friendly.

인공지능과 블록체인 융합 동향 및 정책 개선방안 (Artificial Intelligence and Blockchain Convergence Trend and Policy Improvement Plan)

  • 양희태
    • 정보화정책
    • /
    • 제27권2호
    • /
    • pp.3-19
    • /
    • 2020
  • 인공지능과 블록체인은 4차산업혁명을 이끌어 갈 핵심기술로 각광을 받으며 발전하고 있다. 그러나 아직까지 인공지능은 데이터 확보 및 검증, 결과값에 대한 근거 설명 등에서 한계를 보이고 있고 블록체인 역시 과다한 에너지 소모, 데이터 관리의 유연성 부족 등이 확산을 저해하는 단점으로 꼽히고 있다. 이에 본 연구는 상호보완적인 성격을 지닌 인공지능과 블록체인의 기술 및 산업 동향과 한계점, 그리고 이를 극복하기 위한 기술융합 방안을 분석하고 정책 개선방안을 제시하였다. 구체적으로 혁신정책 관점을 적용해 연구개발(R&D) 강화 측면에서 1) 국가 차원의 중장기 인공지능/블록체인 융합 연구 추진, 2) 블록체인 기반 인공지능 데이터 플랫폼 구축, 혁신 생태계 조성 측면에서 3) 산업별 인공지능/블록체인 융합 응용 발굴 지원, 4) 인공지능/블록체인 융합 비즈니스 모델 개발 스타트업 지원, 법제도 개선 측면에서 5) 규제 샌드박스 확대 적용, 6) 개인정보보호 관련 규제 정비를 제안하였다.