DOI QR코드

DOI QR Code

기업의 윤리적 인공지능 기반 서비스 개발을 위한 정책수단 연구: AHP를 활용한 탐색적 분석

A Study on Policy Instrument for the Development of Ethical AI-based Services for Enterprises: An Exploratory Analysis Using AHP

  • 장창기 (서울과학기술대학교 IT정책전문대학원 AI공공정책전공) ;
  • 이민상 (서울대학교 행정대학원 지능정보사회 정책연구센터) ;
  • 성욱준 (서울과학기술대학교 IT정책전문대학원 AI공공정책전공)
  • 투고 : 2023.02.02
  • 심사 : 2023.03.06
  • 발행 : 2023.04.30

초록

Despite the growing interest and normative discussions on AI ethics, there is a lack of discussion on policy instruments that are necessary for companies to develop AI-based services in compliance with ethical principles. Thus, the purpose of this study is to explore policy instruments that can encourage companies to voluntarily comply with and adopt AI ethical standards and self-checklists. The study reviews previous research and similar cases on AI ethics, conducts interviews with AI-related companies, and analyzes the data using AHP to derive action plans. In terms of desirability and feasibility, Research findings show that policy instruments that induce companies to ethically develop AI-based services should be prioritized, while regulatory instruments require a cautious approach. It was also found that a consulting support policy consisting of experts in various fields who can support the use of AI ethics, and support for the development of solutions that adhere to AI ethical standards are necessary as incentive policies. Additionally, the participation and agreement of various stakeholders in the process of establishing AI ethical standards are crucial, and policy instruments need to be continuously supplemented through implementation and feedback. This study is significant as it presents the necessary policy instruments for companies to develop ethical AI-based services through an analytical methodology, moving beyond discursive discussions on AI ethical principles. Further analysis on the effectiveness of policy instruments linked to AI ethical principles is necessary for establishing ethical AI-based service development.

키워드

과제정보

이 논문은 정보통신정책연구원과 서울과학기술대학교 산학협력단이 수행한 「AI 윤리 확산을 위한 정책 방안 연구(2022)」의 내용을 수정 및 보완하고, 2022년 대한민국 교육부와 한국연구재단의 지원을 받아 수행된 연구임(NRF-2022S1A5B5A17043563).

참고문헌

  1. 개인정보보호위원회, "개인정보위, '이루다'개발사(주) 스캐터랩에 과징금.과태료 등 제재 처분", 개인정보보호위원회 보도자료(2021년 4월 28일자), 2021a.
  2. 개인정보보호위원회, 인공지능(AI) 개인정보보호 자율점검표, 2021b.
  3. 고학수, 임용, 박상철, "유럽연합 인공지능법안의 개요 및 대응방안", DAIG Magazine, 2021.
  4. 과학기술정보통신부, "I-Korea 4.0 실현을 위한 인공지능(AI) R&D 전략", 2018.
  5. 과학기술정보통신부, "사람이 중심이 되는 「인공지능(AI) 윤리기준」 마련", 2020.
  6. 과학기술정보통신부, 정보통신정책연구원, "2022 인공지능 윤리기준 실천을 위한 자율점검표(안)", 2022.
  7. 과학기술정보통신부, "인공지능의 윤리적 개발.활용을 촉진하는 논의의 장 마련", 보도자료(2월 24일), 2022.
  8. 과학기술정보통신부, 한국정보통신기술협회, "2022 신뢰할 수 있는 인공지능 개발 안내서(안)", 2022.
  9. 관계부처 합동, "인공지능 국가전략", 2019.
  10. 관계부처 합동, "K-ESG 가이드라인 v1.0", 2021a.
  11. 관계부처 합동, "사람이 중심이 되는 인공지능을 위한 신뢰할 수 있는 인공지능 실현 전략(안)", 2021b.
  12. 국민권익위원회, "카카오 - 인공지능 윤리헌장 발표", 기업윤리 브리프스, 2019-1(통권73호), 2019.
  13. 금융위원회, "금융분야 AI 개발.활용 안내서", 2022.
  14. 김명주, "인공지능 윤리 원칙 Seoul PACT를 적용한 지능형 전자정부 서비스 윤리 가이드라인", 한국IT서비스학회지, 제18권, 제3호, 2019, 117-128. https://doi.org/10.9716/KITS.2019.18.3.117
  15. 김미리, 윤상필, 권헌영, "인공지능 전문가 윤리의 역할과 윤리 기준의 지향점", 법학논총, 제32권, 제3호, 2020, 9-53. https://doi.org/10.17251/LEGAL.2020.32.3.9
  16. 김인자, 박형준, "과학기술 규제 정책의 형성과 변동과정분석: 「생명윤리 및 안전에 관한 법률」을 중심으로", 한국정책학회보, 제20권, 제1호, 2011, 111-150.
  17. 노화준, "과학기술윤리와 국가의 역할: 생명윤리를 중심으로", 행정논총, 제39권, 제4호, 2001, 1-30.
  18. 박도현, "인공지능 윤리의 두 가지 가치", 법학논문집, 제45권, 제1호, 2021, 89-118.
  19. 산업통상자원부, "우리 기업의 ESG 경영을 지원하는 관계부처 합동'K-ESG 가이드라인'발표", 산업통상자원부 보도자료(2021년 12월 2일자), 2021.
  20. 송미원, 권기창, "생명윤리 입법화 과정에서의 정책네트워크 분석에 관한 연구", 한국행정연구, 제12권, 제3호, 2003, 32-64.
  21. 이경선, "EU 인공지능 규제안의 주요 내용과 시사점", KISDI Perspective(2021-1), 2021.
  22. 이광석, "챗봇 '이루다'가 우리 사회에 남긴 문제: 인공지능에 인권 매뉴얼 탑재하기", 문화과학, 제105호, 2021, 183-198.
  23. 이우권, "인공지능의 윤리적 사용을 위한 정책대안에 관한 연구", 한국정책논집, 제20권, 제1호, 2020, 1-16.
  24. 이현진, 이미혜, "인공지능산업 현황 및 주요국 육성 정책", K 뉴딜산업 INSIGHT 보고서-5, 2021.
  25. 임미가, "인공지능 윤리 연구에 관한 체계적 문헌고찰", 윤리연구, 제135호, 2021, 47-66.
  26. 전영한, "정책도구의 다양성: 도구유형분류의 쟁점과 평가", 정부학연구, 제13권, 제4호, 2007, 259-295.
  27. 정보통신정책연구원, "윤리적 인공지능을 위한 국가 정책 수립", 2020.
  28. 정보통신정책연구원, "사람중심의 인공지능 구현을 위한 인공지능 윤리정책 개발", 2021.
  29. 최경진, 이기평, "AI 윤리 관련 법제화 방안 연구", 글로벌법제전략 연구 21-17-⑤, 2021.
  30. 한국개발연구원, "AI(인공지능)에 대한 기업체 인식 및 실태조사", https://eiec.kdi.re.kr/issue/opinionView.do?idx=24&pp=20&pg=1(2023.1.5.검색), 2020.
  31. 한국지능정보사회진흥원, "유네스코 AI 윤리 권고 주요 내용 및 시사점", IT & Future Strategy, 2021.
  32. 허유선, 이연희, 심지원, "왜 윤리인가: 현대 인공지능 윤리 논의의 조망, 그 특징과 한계", 인간.환경.미래, 제24호, 2022, 165-209.
  33. Ayling, J. and A. Chapman, "Putting AI ethics to work: Are the tools fit for purpose?", AI and Ethics, 2021.
  34. de Sousa, W.G., E.R.P. de Melo, P.H.D.S. Bermejo, R.A.S. Farias, and A.O. Gomes, "How and where is artificial intelligence in the public sector going? A literature review and research agenda", Government Information Quarterly, Vol.36, No.4, 2019.
  35. Floridi, L., "Translating Principles into Practices of Digital Ethics: Five Risks of Being Unethical", Philosophy & Technology, Vol.32, 2019, 185-193. https://doi.org/10.1007/s13347-019-00354-x
  36. Hagendorff, T., "The Ethics of AI Ethics: An Evaluation of Guidelines", Minds and Machines, Vol.30, No.1, 2020, 99-120. https://doi.org/10.1007/s11023-020-09517-8
  37. Henman, P., "Improving public services using artificial intelligence: possibilities, pitfalls, governance", Asia Pacific Journal of Public Administration, Vol.42, No.4, 2020, 209-221. https://doi.org/10.1080/23276665.2020.1816188
  38. Hickok, M., "Lessons learned from AI ethics principles for future actions", AI and Ethics, Vol.1, No.1, 2021, 41-47. https://doi.org/10.1007/s43681-020-00008-1
  39. Huang, M.-H. and R.T. Rust, "Artificial Intelligence in Service", Journal of Service Research, Vol.21, No.2, 2018, 155-172. https://doi.org/10.1177/1094670517752459
  40. Lins, S., K.D. Pandl, H. Teigeler, S. Thiebes, C. Bayer, and A. Sunyaev, "Artificial Intelligence as a Service", Business & Information Systems Engineering, Vol.63, No.4, 2021, 441-456.
  41. Mehr, H., "Artificial Intelligence for Citizen Services and Government", Ash Center for Democratic Governance and Innovation, Harvard Kennedy School, 2017.
  42. Mittelstadt, B., "Principles alone cannot guarantee ethical AI", Nature Machine Intelligence, Vol.1, Mo.11, 2019, 501-507. https://doi.org/10.1038/s42256-019-0114-4
  43. Mokander, J., J. Morley, M. Taddeo, and L. Floridi, "Ethics-Based Auditing of Automated Decision-Making Systems: Nature, Scope, and Limitations", Science and Engineering Ethics, Vol.27, No.4, 2021.
  44. Morley, J., L. Kinsey, A. Elhalal, F. Garcia, M. Ziosi, and L. Floridi, "Operationalising AI ethics: Barriers, Enablers and Next Steps", AI & Society, Vol.38, 2023, 411-423.
  45. Pega, "What Consumers Really Think About AI: A Global Study", Pegasystems, 2017.
  46. Resseguier, A. and R. Rodrigues, "AI Ethics Should not Remain Toothless! A Call to Bring Back the Teeth of Ethics", Big Data & Society, Vol.7, No.2, 2020, 1-5.
  47. Saaty, T.L., "A scaling method for priorities in hierarchical structures", Journal of Mathematical Psychology, Vol.15, No.3, 1977, 234-281. https://doi.org/10.1016/0022-2496(77)90033-5
  48. Saaty, T.L., "An Exposition of the AHP in Reply to the Paper "Remarks on the Analytic Hierarchy Process"", Management Science, Vol.36, No.3, 1990, 247-399. https://doi.org/10.1287/mnsc.36.3.259
  49. Siau, K. and W.Y. Wang, "Artificial Intelligence (AI) Ethics: Ethics of AI and Ethical AI", Journal of Database Management, Vol.31, No.2, 2020, 74-87. https://doi.org/10.4018/JDM.2020040105
  50. Vedung, E., "Policy Instruments: Typologies and Theories", In M.-L. Bemelmans-Videc, R. C. Rist, and E. Vedung (Eds.), Carrots, Sticks and Sermons: Policy Instruments and Their Evaluation, Routledge, 1999, 21-59.
  51. Wirtz, B.W., J.C. Weyerer, and C. Geyer, "Artificial Intelligence and the Public Sector-Applications and Challenges", International Journal of Public Administration, Vol.42, No.7, 2019, 596-615. https://doi.org/10.1080/01900692.2018.1498103