• 제목/요약/키워드: AI Ethics

검색결과 95건 처리시간 0.028초

인공지능윤리교육의 국내 연구 동향 분석 (Analysis of Domestic Research Trends in AI Ethics Education)

  • 김경주
    • 디지털산업정보학회논문지
    • /
    • 제19권4호
    • /
    • pp.29-44
    • /
    • 2023
  • This study examined research trends in AI ethics education and attempted to suggest a direction for AI ethics education. As a result of the research, two studies were conducted in 2017. There are no studies in 2018 and 2019, and there are 6 studies in 2020. Since then, research has continued to increase, with 19 studies in 2021 and 18 studies in 2022. There were a total of 37 lead authors of the study. There were six lead authors who had published papers for more than two years, and two lead authors who had published papers for more than three years. In addition, to examine the details of AI ethics education, a total of 265 keywords that went through a refining process were divided into education-related, ethics-related, AI-related, and other-related. Although the necessity and importance of research on AI ethics education is expected to increase, there are not many researchers who continuously conduct research on AI ethics education. Accordingly, there is a need to find ways to continue research on AI ethics education. AI ethics education is being conducted under various names such as moral education, ethics education, liberal arts education, and AI education. Accordingly, research on AI ethics education at various levels and forms should be conducted, not just educational research on artificial intelligence ethics in terms of regular subjects.

Exploring AI Principles in Global Top 500 Enterprises: A Delphi Technique of LDA Topic Modeling Results

  • Hyun BAEK
    • 한국인공지능학회지
    • /
    • 제11권2호
    • /
    • pp.7-17
    • /
    • 2023
  • Artificial Intelligence (AI) technology has already penetrated deeply into our daily lives, and we live with the convenience of it anytime, anywhere, and sometimes even without us noticing it. However, because AI is imitative intelligence based on human Intelligence, it inevitably has both good and evil sides of humans, which is why ethical principles are essential. The starting point of this study is the AI principles for companies or organizations to develop products. Since the late 2010s, studies on ethics and principles of AI have been actively published. This study focused on AI principles declared by global companies currently developing various products through AI technology. So, we surveyed the AI principles of the Global 500 companies by market capitalization at a given specific time and collected the AI principles explicitly declared by 46 of them. AI analysis technology primarily analyzed this text data, especially LDA (Latent Dirichlet Allocation) topic modeling, which belongs to Machine Learning (ML) analysis technology. Then, we conducted a Delphi technique to reach a meaningful consensus by presenting the primary analysis results. We expect to provide meaningful guidelines in AI-related government policy establishment, corporate ethics declarations, and academic research, where debates on AI ethics and principles often occur recently based on the results of our study.

기업의 윤리적 인공지능 기반 서비스 개발을 위한 정책수단 연구: AHP를 활용한 탐색적 분석 (A Study on Policy Instrument for the Development of Ethical AI-based Services for Enterprises: An Exploratory Analysis Using AHP)

  • 장창기;이민상;성욱준
    • 한국IT서비스학회지
    • /
    • 제22권2호
    • /
    • pp.23-40
    • /
    • 2023
  • Despite the growing interest and normative discussions on AI ethics, there is a lack of discussion on policy instruments that are necessary for companies to develop AI-based services in compliance with ethical principles. Thus, the purpose of this study is to explore policy instruments that can encourage companies to voluntarily comply with and adopt AI ethical standards and self-checklists. The study reviews previous research and similar cases on AI ethics, conducts interviews with AI-related companies, and analyzes the data using AHP to derive action plans. In terms of desirability and feasibility, Research findings show that policy instruments that induce companies to ethically develop AI-based services should be prioritized, while regulatory instruments require a cautious approach. It was also found that a consulting support policy consisting of experts in various fields who can support the use of AI ethics, and support for the development of solutions that adhere to AI ethical standards are necessary as incentive policies. Additionally, the participation and agreement of various stakeholders in the process of establishing AI ethical standards are crucial, and policy instruments need to be continuously supplemented through implementation and feedback. This study is significant as it presents the necessary policy instruments for companies to develop ethical AI-based services through an analytical methodology, moving beyond discursive discussions on AI ethical principles. Further analysis on the effectiveness of policy instruments linked to AI ethical principles is necessary for establishing ethical AI-based service development.

AI와 윤리: 문헌의 종합적 분석과 정보시스템 분야의 향후 연구 방향 (Navigating Ethical AI: A Comprehensive Analysis of Literature and Future Directions in Information Systems)

  • 민진영
    • 지식경영연구
    • /
    • 제25권3호
    • /
    • pp.1-22
    • /
    • 2024
  • AI의 사용이 일상 생활의 많은 부분에서 현실화 되어감에 따라 AI가 가져오는 긍정적인 기회와 혜택이 주목 받는 한편, AI가 초래할 수 있는 윤리적 문제들에 대한 염려도 커지고 있다. 정보시스템 분야는 기술이 비즈니스와 사회에 미치는 영향을 연구하는 분야로서 AI가 인류 사회에 바람직한 영향을 미칠 수 있도록 기여해야 한다. 따라서 AI와 윤리 관련한 다양한 연구들을 살펴보고 정보시스템 분야의 연구가 나아가야 할 방향을 탐색할 필요가 있다. 본 연구는 이를 위해 먼저 2020년부터 현재까지의 문헌을 수집하여 연구자의 코딩과 토픽 모델링을 통해 연구 주제를 범주화 하였다. 분석 결과 AI 윤리 원칙, 윤리적 AI 디자인 및 개발, 윤리적 AI 도입 및 활용, 윤리적 AI 사용의 네 가지로 연구 주제를 범주화하고, 각 범주 별로 문헌을 고찰하여 연구 현황을 짚은 후, 정보 시스템 분야에서의 AI 윤리에 대한 향후 연구 방향을 제언하였다.

AI 윤리와 규제에 관한 표준 프레임워크 설정 방안 연구 (A Study on How to Set up a Standard Framework for AI Ethics and Regulation)

  • 남문희
    • 한국융합학회논문지
    • /
    • 제13권4호
    • /
    • pp.7-15
    • /
    • 2022
  • 정보와 기술의 탈중앙화/분권, 공유/개방, 연결을 통한 개별 맞춤 시대의 지능화 세계 지향으로 그 어느 때 보다도 인공지능에 대한 관심과 기술적 담론 속에 기대와 우려가 교차하는 경향을 자주 보게 된다. 최근에는 2045년 전, 후로 AI의 특이성(Singularity)이 나타날 것이라는 미래학자들의 주장도 쉽게 찾아볼 수 있다. 이제는 다가올 인공지능 시대에서 AI와 함께 상생하고 번영하는 공존 패러다임을 만들기 위한 준비의 일환으로 보다 올바른 AI 윤리와 규제 설정을 위한 표준 프레임워크가 요구되고 있다. 주요지침 설정 누락의 위험성 배제와 타당하고 보다 합리적인 지침 항목과 평가 기준을 가늠 할 수 있는 방안이 점차 큰 연구문제로 나타나고 있기 때문이다. 이런 연구문제 해결과 동시에 AI 윤리와 규제 설정에 대한 지속적인 경험과 학습효과가 연결 발전될 수 있도록 국제기구/국가/기업의 AI 윤리와 규제에 대한 가이드 라인 자료 등을 수집하여 설정 연구모형과 텍스트 마이닝 탐색 분석을 통해 표준 프레임워크(SF: Standard Framework) 설정 방안을 연구 제시한다. 본 연구결과는 향후 보다 발전적인 AI 윤리와 규제지침 항목 설정과 평가 방안연구에 기초 선행연구 자료로 기여될 수 있을 것이다.

인공지능 윤리 원칙 Seoul PACT를 적용한 지능형 전자정부 서비스 윤리 가이드라인 (Seoul PACT : Principles of Artificial Intelligence Ethics and its Application Example to Intelligent E-Government Service)

  • 김명주
    • 한국IT서비스학회지
    • /
    • 제18권3호
    • /
    • pp.117-128
    • /
    • 2019
  • The remarkable achievements of the artificial intelligence in recent years are also raising awareness about its potential risks. Several governments and public organizations have been proposing the artificial intelligence ethics for sustainable development of artificial intelligence by minimizing potential risks. However, most existing proposals are focused on the developer-centered ethics, which is not sufficient for the comprehensive ethics required for ongoing intelligent information society. In addition, they have chosen a number of principles as the starting point of artificial intelligence ethics, so it is not easy to derive the guideline flexibly for a specific member reflecting its own situation. In this paper, we classify primitive members who need artificial intelligence ethics in intelligent information society into three : Developer, Supplier and User. We suggest a new artificial intelligence ethics, Seoul PACT, with minimal principles through publicness (P), accountability (A), controllability (C), and transparency (T). In addition, we provide 38 canonical guidelines based on these four principles, which are applicable to each primitive members. It is possible for a specific member to duplicate the roles of primitive members, so that the flexible derivation of the artificial intelligence ethics guidelines can be made according to the characteristics of the member reflecting its own situation. As an application example, in preparation for applying artificial intelligence to e-government service, we derive a full set of artificial intelligence ethics guideline from Seoul PACT, which can be adopted by the special member named Korean Government.

The Threat of AI and Our Response: The AI Charter of Ethics in South Korea

  • Hwang, Ha;Park, Min-Hye
    • Asian Journal of Innovation and Policy
    • /
    • 제9권1호
    • /
    • pp.56-78
    • /
    • 2020
  • Changes in our lives due to Artificial Intelligence (AI) are currently ongoing, and there is little refutation of the effectiveness of AI. However, there have been active discussions to minimize the side effects of AI and use it responsibly, and publishing the AI Charter of Ethics (AICE) is one result of it. This study examines how our society is responding to threats from AI that may emerge in the future by examining various AIECs in the Republic of Korea. First, we summarize seven AI threats and classify these into three categories: AI's value judgment, malicious use of AI, and human alienation. Second, from Korea's seven AICEs, we draw fourteen topics based on three categories: protection of social values, AI control, and fostering digital citizenship. Finally, we review them based on the seven AI threats to evaluate any gaps between the threats and our responses. The analysis indicates that Korea has not yet been able to properly respond to the threat of AI's usurpation of human occupations (jobs). In addition, although Korea's AICEs present appropriate responses to lethal AI weapons, these provisions will be difficult to realize because the competition for AI weapons among military powers is intensifying.

초거대 인공지능 정책 변동과정에 관한 연구 : 옹호연합모형을 중심으로 (A Study on the Process of Policy Change of Hyper-scale Artificial Intelligence: Focusing on the ACF)

  • 최석원;이주연
    • 시스템엔지니어링학술지
    • /
    • 제18권2호
    • /
    • pp.11-23
    • /
    • 2022
  • Although artificial intelligence(AI) is a key technology in the digital transformation among the emerging technologies, there are concerns about the use of AI, so many countries have been trying to set up a proper regulation system. This study analyzes the cases of the regulation policies on AI in USA, EU and Korea with the aim to set up and improve proper AI policies and strategies in Korea. In USA, the establishment of the code of ethics for the use of AI is led by private sector. On the other side, Europe is strengthening competitiveness in the AI industry by consolidating regulations that are dispersed by EU members. Korea has also prepared and promoted policies for AI ethics, copyright and privacy protection at the national level and trying to change to a negative regulation system and improve regulations to close the gap between the leading countries and Korea in AI. Moreover, this study analyzed the course of policy changes of AI regulation policy centered on ACF(Advocacy Coalition Framework) model of Sabatier. Through this study, it proposes hyper-scale AI regulation policy recommendations for improving competitiveness and commercialization in Korea. This study is significant in that it can contribute to increasing the predictability of policy makers who have difficulties due to uncertainty and ambiguity in establishing regulatory policies caused by the emergence of hyper-scale artificial intelligence.

실천력 강화를 위한 인공지능 윤리 교육 모델 (An Artificial Intelligence Ethics Education Model for Practical Power Strength)

  • 배진아;이정훈;조정원
    • 산업융합연구
    • /
    • 제20권5호
    • /
    • pp.83-92
    • /
    • 2022
  • 인공지능 기술로 인한 사회·윤리적 문제 사례가 발생하면서 인공지능의 위험과 부작용에 대한 사회적 관심과 함께 인공지능 윤리가 주목받고 있다. 인공지능 윤리는 알고, 느끼는 것에 그치는 것이 아니라 행동과 실천으로 이루어져야 한다. 이에 본 논문은 인공지능 윤리의 실천력을 강화하기 위한 인공지능 윤리 교육 모델을 제안하고자 한다. 인공지능 윤리교육 모델은 선행 연구 분석을 통해 교육목표와 인공지능을 이용한 문제해결 프로세스를 도출하고, 실천력 강화를 위한 교수학습방법을 적용하였으며 기존에 제안된 인공지능 교육 모델과 비교 분석하여 그 차이를 도출하였다. 본 논문에서 제안하는 인공지능 윤리 교육 모델은 컴퓨팅 사고력 함양과 인공지능 윤리의 실천력 강화를 목표로 한다. 이를 위해 인공지능을 이용한 문제해결 프로세스를 6단계로 제안하고, 인공지능 특성을 반영한 인공지능 윤리요소를 도출하여 문제해결 프로세스에 적용하였다. 또한, 인공지능 윤리 의식에 대한 사전·사후 평가와 과정 평가를 통해 인공지능 윤리 기준을 무의식적으로 확인하게 하고, 학습자 중심의 교수학습방법을 적용하여 학습자의 윤리 실천을 습관화하도록 설계하였다. 본 연구를 통해 개발된 인공지능 윤리 교육 모델이 컴퓨팅 사고력을 함양하고, 인공지능 윤리가 실천으로 이어지는 인공지능 교육이 될 수 있을 것으로 기대한다.

인공지능 윤리 강화를 위한 제도적 개선방안 연구 (Research on institutional improvement measures to strengthen artificial intelligence ethics)

  • 차건상
    • 융합보안논문지
    • /
    • 제24권2호
    • /
    • pp.63-70
    • /
    • 2024
  • 인공지능 기술의 발전으로 우리의 삶은 혁신적으로 변화하고 있지만, 동시에 윤리적 문제들도 새롭게 대두되고 있다. 특히 알고리즘 및 데이터 편향성에 의한 차별문제, 딥페이크 및 개인정보 유출 문제 등은 인공지능 서비스확대에 따라 사회적으로 해결해야 할 선결과제라 판단된다. 이를 위해 본 논문에서는 인공지능 윤리 측면에서 인공지능의 개념과 윤리적 이슈를 살펴보고 이를 예방하기 위한 각국의 윤리 가이드라인, 법률, 인공지능 영향평가제도, 인공지능 인증제도와 인공지능 알고리즘 투명성 관련 기술 현황 등을 살펴보고 인공지능 윤리 강화를 위한 제도적 개선방안을 제시하고자 한다.