• 제목/요약/키워드: AI Ethics

검색결과 84건 처리시간 0.022초

UX-기반 메타버스 윤리적 AI 학습 모델 연구 (A Study on the UX-based Ethical AI-Learning Model for Metaverse)

  • 안성희
    • 방송공학회논문지
    • /
    • 제27권5호
    • /
    • pp.694-702
    • /
    • 2022
  • 본 논문은 메타버스 환경에서 대화형 AI가 어떻게 윤리적으로 진화될 수 있을지에 대한 솔루션을 UX(사용자경험) 관점으로 찾아보는 기술 전략 연구이다. 대화형 AI는 사람들과의 직접적인 인터랙션을 통해 사람들의 온·오프라인의 결정요소에 영향을 미치기 때문에 메타버스 AI 윤리가 필수적으로 반영되어야 한다. 대화형 AI의 머신러닝의 과정에는 사용자 개인의 경험데이터와 함께 문화적 코드들이 포함되고 고려되어야 사용자경험의 오류값을 줄일 수 있다. 이를 통해 초 개인화된 메타버스의 서비스가 사회적 가치를 고려하며 윤리적으로 진화할 수 있다. 위와 같은 가설을 기반으로 본 논문의 연구 결과로 메타버스 서비스 환경에서 컨택스트 기반의 대화형 AI를 위한 머신러닝(ML)과정에 사용자의 경험데이터를 추가한 선행적 관점의 개념 모델을 개발, 제안하였다.

논문 키워드 분석을 통한 인공지능의 주요 이슈에 관한 고찰 : 사회과학 분야의 KCI 등재학술지를 중심으로 (A Study on Major Issues of Artificial Intelligence Using Keyword Analysis of Papers: Focusing on KCI Journals in the Field of Social Science)

  • 정도범;유화선;문희진
    • 한국콘텐츠학회논문지
    • /
    • 제22권7호
    • /
    • pp.1-9
    • /
    • 2022
  • 오늘날, 인공지능이 국가 경쟁력의 핵심 동력으로 부상하였으나, 사회적으로 예상치 못한 부작용도 초래하고 있다. 본 연구는 사회과학 분야의 KCI 등재학술지를 대상으로 인공지능에 관한 논문을 수집하여 사회적 측면의 주요 이슈를 고찰하고자 한다. 따라서 2016년부터 2020년까지 논문에 대한 키워드 분석을 수행하였다. 분석 결과, '로봇', '교육'에 대한 키워드가 가장 많이 나타났으며, 키워드 네트워크를 통해 상위 6개의 군집(이슈)을 도출하였다. 주요 이슈는 인공지능의 등장 배경이나 기본적인 개념, 인공지능 교육, 인공지능의 부작용, 인공지능 기반 창작물의 법적 이슈, 인공지능 제품/서비스의 이용의도, 인공지능 윤리 등을 제시할 수 있다. 본 연구 결과는 인공지능의 사회적 측면에 대한 논의를 확산하고, 국가 차원의 정책 방향을 모색하는데 활용할 수 있을 것이다.

Web of Science 빅데이터를 활용한 텍스트 마이닝 기반의 정보윤리 이슈 탐색 (Exploring Information Ethics Issues based on Text Mining using Big Data from Web of Science)

  • 김한성
    • 컴퓨터교육학회논문지
    • /
    • 제22권3호
    • /
    • pp.67-78
    • /
    • 2019
  • 본 연구의 목적은 Web of Science(WoS)에서 제공하는 학술 빅데이터를 활용하여 정보윤리 이슈를 탐색하고 향후 정보과 정보윤리 교육을 위한 시사점을 제공하는 것에 있다. 이를 위해 WoS에서 제공하는 학술논문 중 정보윤리와 관련해 출판된 318편의 논문을 텍스트 마이닝 하였다. 구체적으로는 R을 활용해 주요키워드에 대한 빈도 분석(TF, DF, TF-IDF), 토픽 모델링 기반의 정보윤리 이슈 분석, 그리고 각 이슈에 대한 연도별 출연 빈도를 분석하여 정보윤리 연구의 경향성을 탐색하였다. 주요 결과를 살펴보면 다음과 같다. 첫째, TF-IDF를 통해 'digital', 'student', 'software', 'privacy' 등의 단어가 주요 키워드임을 확인하였다. 둘째, 토픽 모델링 분석 결과, 'Professional value', 'Cyber-bullying', 'AI and Social Impact' 등을 포함한 총 8개 이슈로 분석되었고, 그 중, 'Professional value'와 'Cyber-bullying' 이슈가 상대적으로 높은 비율을 차지하고 있었다. 본 연구는 이러한 분석 결과를 기초로 우리나라 정보윤리 교육을 시사점을 논의하였다.

딥페이크 앱 활용 윤리교육 융합 프로젝트의 개발 및 적용 (Development and Application of Ethics Education STEAM Projects using DeepFake Apps)

  • 황정;최은정;한정혜
    • 정보교육학회논문지
    • /
    • 제25권2호
    • /
    • pp.405-412
    • /
    • 2021
  • 본 논문은 초상권·저작권 및 사이버 폭력 등의 문제를 예방하고 대응하기 위하여 인공지능 기술을 활용한 딥페이크 앱 활용 윤리 교육 융합 프로젝트를 개발, 적용하였다. 상용 딥페이크 앱을 분석하고, 이를 활용한 초등교육과정에 적용 가능한 교과와 단원 내용을 프로젝트기반 융합·재구성하였다. 창의적 체험활동 중심의 융합 프로젝트는 UCC 제작 과정을 중점으로, 계획된 행동이론 기반의 정보통신 윤리 의식 측정 검사로 효과를 비교하였다. 사회 교과 중심의 융합 프로젝트에서는 화폐(금융)교육의 주제로 재구성하여 질적 분석하였다. 분석 결과, 인공지능 기술 앱 활용 융합수업은 정보통신 윤리 의식을 유의미하게 증진시키는 것을 확인하였다.

Research on the evaluation model for the impact of AI services

  • Soonduck Yoo
    • International Journal of Internet, Broadcasting and Communication
    • /
    • 제15권3호
    • /
    • pp.191-202
    • /
    • 2023
  • This study aims to propose a framework for evaluating the impact of artificial intelligence (AI) services, based on the concept of AI service impact. It also suggests a model for evaluating this impact and identifies relevant factors and measurement approaches for each item of the model. The study classifies the impact of AI services into five categories: ethics, safety and reliability, compliance, user rights, and environmental friendliness. It discusses these five categories from a broad perspective and provides 21 detailed factors for evaluating each category. In terms of ethics, the study introduces three additional factors-accessibility, openness, and fairness-to the ten items initially developed by KISDI. In the safety and reliability category, the study excludes factors such as dependability, policy, compliance, and awareness improvement as they can be better addressed from a technical perspective. The compliance category includes factors such as human rights protection, privacy protection, non-infringement, publicness, accountability, safety, transparency, policy compliance, and explainability.For the user rights category, the study excludes factors such as publicness, data management, policy compliance, awareness improvement, recoverability, openness, and accuracy. The environmental friendliness category encompasses diversity, publicness, dependability, transparency, awareness improvement, recoverability, and openness.This study lays the foundation for further related research and contributes to the establishment of relevant policies by establishing a model for evaluating the impact of AI services. Future research is required to assess the validity of the developed indicators and provide specific evaluation items for practical use, based on expert evaluations.

군사혁신(RMA) 측면에서 바라본 우크라이나군의 지능화 전투사례 연구 (A Study on AI-Enabled Combat Cases of Ukrainian Armed Forces in the RMA (Revolution in Military Affairs) Aspect)

  • 조상근;;김기원;손인근;박상혁
    • 로봇학회논문지
    • /
    • 제18권3호
    • /
    • pp.308-315
    • /
    • 2023
  • Russia invaded Ukraine in February 2022. Many military experts predicted that Russia could defeat Ukraine within a week, but the Ukraine-Russia War has not been going as expected. Indeed, Ukraine military has been defending well and seems to fight more efficiently than Russian military. There are many reasons for this unexpected situation and one apparent thing is due to artificial intelligence (AI) technologies. This study focused on AI-enabled combats that the Armed Forces of Ukraine has carried out around Siverskyi Donets River, the Crimean Peninsula, and suburbs of Kyiv. For more systematic analysis, the revolution in military affairs (RMA) theory was applied. There are four significant implications inferred by studying current Ukraine-Russia War. First, AI technologies are effective even in the current status and seems to be more influential. Second, hyper-connected network by satellite communications must be needed to enhance the AI weapon effects. Third, military AI technologies should be based on the civil-military cooperation to keep up with pace of technological innovation. Fourth, AI ethics in military should be seriously considered and established in the use of AI technologies. We expect that this study could help ROK Armed Forces to be modernized in the revolutionary fashion, especially for manned and unmanned teaming (MUM-T) system.

ETRI AI 실행전략 7: AI로 인한 기술·사회적 역기능 방지 (ETRI AI Strategy #7: Preventing Technological and Social Dysfunction Caused by AI)

  • 김태완;최새솔;연승준
    • 전자통신동향분석
    • /
    • 제35권7호
    • /
    • pp.67-76
    • /
    • 2020
  • Because of the development and spread of artificial intelligence (AI) technology, new security threats and adverse AI functions have emerged as a real problem in the process of diversifying areas of use and introducing AI-based products and services to users. In response, it is necessary to develop new AI-based technologies in the field of information protection and security. This paper reviews topics such as domestic and international trends on false information detection technology, cyber security technology, and trust distribution platform technology, and it establishes the direction of the promotion of technology development. In addition, the development of international trends in ethical AI guidelines to ensure the human-centered ethical validity of AI development processes and final systems in parallel with technology development are analyzed and discussed. ETRI has developed AI policing technology, information protection, and security technologies as well as derived tasks and implementation strategies to prepare ethical AI development guidelines to ensure the reliability of AI based on its capabilities.

A Conceptual Architecture for Ethic-Friendly AI

  • Oktian, Yustus-Eko;Brian, Stanley;Lee, Sang-Gon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권4호
    • /
    • pp.9-17
    • /
    • 2022
  • 최첨단 AI 시스템은 방대한 데이터 수집에서 알고리즘 편향에 이르기까지 많은 윤리적 문제를 드러내고 있다. 이에 본 논문에서는 연합학습과 블록체인을 결합하여, 더 윤리적인 AI 아키텍처를 제안하였다. AI의 윤리성에 관한 중요한 문제들을 논의하고, 문헌조사를 통하여 윤리적 AI 시스템에 대한 요구사항을 연구하고 도출한다. 제안한 아키텍처의 요구사항 만족을 분석하였다. 제안한 AI 구조를 디자인에 채택함으로써 AI 서비스를 보다 윤리적으로 수행할 수 있다.

인공지능 의료윤리: 영상의학 영상데이터 활용 관점의 고찰 (Ethics for Artificial Intelligence: Focus on the Use of Radiology Images)

  • 박성호
    • 대한영상의학회지
    • /
    • 제83권4호
    • /
    • pp.759-770
    • /
    • 2022
  • 인공지능의 연구 개발 및 활용에서 윤리의 중요성이 의료분야뿐 아니라 전 사회적으로 점차 널리 인식되고 있다. 이 종설은 영상의학 영상데이터를 인공지능 연구에 활용할 때 개인정보의 보호 및 데이터에 대한 권리 측면에서 윤리적으로 고려할 사항들에 대해서 국내 독자들에게 실용적인 정보를 제공하고자 한다. 따라서 이 글에 담긴 내용은 많은 부분이 관련된 국내 법과 정부 제도에 바탕을 두고 있다. 인공지능의 연구 개발 및 활용에서 개인정보 보호는 매우 중요한 윤리적 원칙이며 연구 데이터의 적절한 가명처리는 개인정보 보호를 위한 핵심 방법이다. 아울러 인공지능 연구 개발에 의료 데이터를 상업적 이해관계를 최소화하며 윤리적으로 공유할 필요성도 부각되고 있다. 연구 데이터 공유는 개인정보 유출의 위험을 증가시키므로 개인정보 보호에 더욱 주의가 필요하다.

인공지능 윤리원칙 기반의 인격권 및 재산보호를 위한 인공지능 윤리 측정지표에 관한 연구 (A Study on the Artificial Intelligence Ethics Measurement indicators for the Protection of Personal Rights and Property Based on the Principles of Artificial Intelligence Ethics)

  • 소순주;안성진
    • 인터넷정보학회논문지
    • /
    • 제23권3호
    • /
    • pp.111-123
    • /
    • 2022
  • 지능정보화 사회에서 가장 핵심으로 발전하고 있는 인공지능은 인간에게 편의성과 긍정적인 삶의 변화를 가져오고 있다. 하지만 인공지능 발전과 함께 인간의 인격권과 재산이 위협받고, 윤리적인 문제가 발생하는 사례도 증가하고 있기 때문에 그에 따른 대안이 필요하다. 본 연구에서는 인공지능의 역기능에서 가장 쟁점화되고 있는 인공지능 윤리(Artificial Intelligence Ethics) 문제를 인공지능 윤리원칙과 구성요소 기반 하에 우선적으로 인간의 인격권과 재산을 보호할 수 있도록 인공지능 윤리 측정지표를 연구, 개발하는 데 목표를 두었다. 인공지능 윤리 측정지표를 연구, 개발하기 위해 다양한 관련 문헌과 전문가 심층 면접(FGI), 델파이 설문조사를 실시하여 43개 항목의 윤리 측정지표를 도출하였다. 설문조사와 통계분석에 의하여 윤리 측정지표에 대한 기술통계량 분석, 신뢰도 분석, 상관관계 분석으로 40개 항목의 인공지능 윤리 측정지표를 확정하여 제안하였다. 제안된 인공지능 윤리 측정지표는 인공지능 설계, 개발, 교육, 인증, 운영, 표준화 등에 활용될 수 있으며, 안전하고 신뢰할 수 있는 인공지능 발전에 기여할 수 있을 것이다.