• 제목/요약/키워드: 인공지능 윤리원칙

검색결과 9건 처리시간 0.026초

인공지능 윤리 딜레마 문항 개발 (Development of AI Ethics Dilemma Questions)

  • 김은경;이영준
    • 한국컴퓨터정보학회:학술대회논문집
    • /
    • 한국컴퓨터정보학회 2023년도 제67차 동계학술대회논문집 31권1호
    • /
    • pp.225-226
    • /
    • 2023
  • 인공지능 기술이 사회 전반에 확산하며, 인공지능 윤리 문제 또한 큰 이슈가 되었다. 이에 따라 정부, 기업, 연구기관, 국제기구 등 다양한 단체에서 인공지능 기준안을 발표하고 있으나 이러한 인공지능 윤리 기준안을 발표하는 것으로 인공지능 윤리 문제를 해결할 수 없다. 이에 인공지능 윤리교육이 절실히 필요하다. 그러나 학교급에서의 인공지능 윤리교육을 위한 프로그램이 미흡하다. 이러한 상황에서 Moral machine은 인공지능을 위한 윤리교육 도구로 학교급을 막론하고 활발하게 사용되고 있다. 그러나 Moral machine의 딜레마 상황은 교육용으로 다소 부적절한 요소가 있다. 이에 본 연구에서는 인공지능 윤리교육에 적합한 인공지능 윤리 딜레마 문항을 사람이 중심이 되는 인공지능 기준의 3대 원칙을 바탕으로 개발하였다.

  • PDF

인공지능 윤리원칙 기반의 인격권 및 재산보호를 위한 인공지능 윤리 측정지표에 관한 연구 (A Study on the Artificial Intelligence Ethics Measurement indicators for the Protection of Personal Rights and Property Based on the Principles of Artificial Intelligence Ethics)

  • 소순주;안성진
    • 인터넷정보학회논문지
    • /
    • 제23권3호
    • /
    • pp.111-123
    • /
    • 2022
  • 지능정보화 사회에서 가장 핵심으로 발전하고 있는 인공지능은 인간에게 편의성과 긍정적인 삶의 변화를 가져오고 있다. 하지만 인공지능 발전과 함께 인간의 인격권과 재산이 위협받고, 윤리적인 문제가 발생하는 사례도 증가하고 있기 때문에 그에 따른 대안이 필요하다. 본 연구에서는 인공지능의 역기능에서 가장 쟁점화되고 있는 인공지능 윤리(Artificial Intelligence Ethics) 문제를 인공지능 윤리원칙과 구성요소 기반 하에 우선적으로 인간의 인격권과 재산을 보호할 수 있도록 인공지능 윤리 측정지표를 연구, 개발하는 데 목표를 두었다. 인공지능 윤리 측정지표를 연구, 개발하기 위해 다양한 관련 문헌과 전문가 심층 면접(FGI), 델파이 설문조사를 실시하여 43개 항목의 윤리 측정지표를 도출하였다. 설문조사와 통계분석에 의하여 윤리 측정지표에 대한 기술통계량 분석, 신뢰도 분석, 상관관계 분석으로 40개 항목의 인공지능 윤리 측정지표를 확정하여 제안하였다. 제안된 인공지능 윤리 측정지표는 인공지능 설계, 개발, 교육, 인증, 운영, 표준화 등에 활용될 수 있으며, 안전하고 신뢰할 수 있는 인공지능 발전에 기여할 수 있을 것이다.

인공지능 로봇의 위험성 유형별 측정지표 개발 (Development of Measurement Indicators by Type of Risk of AI Robots)

  • 송현경
    • 인터넷정보학회논문지
    • /
    • 제25권4호
    • /
    • pp.97-108
    • /
    • 2024
  • 인공지능 로봇의 산업화가 활발해짐에 따라 윤리적, 기술적 문제가 심각해지고 있음에도 위험성에 관한 연구는 미흡하다. 이러한 실정에서 연구자는 인공지능 로봇의 신체, 권리, 재산, 사회적 위험성을 측정할 수 있는 검증된 지표 52개를 개발하였다. 인공지능 로봇의 위험성 유형별 측정지표 개발을 위해 IRB 심의 이후, 전문가 11명에게 심층 면접하였다. 또한 현장성 검증을 위해 인공지능 로봇이 도입될 수 있는 여러 분야 종사자 328명에게 설문 조사하였으며, 타당성 및 신뢰성 측정을 위해 탐색적 요인분석과 신뢰도 분석, 변수 계산을 위한 상관관계 분석과 다중 회귀분석 등 통계 검증하였다. 이 논문에서 제시하는 측정지표가 표준화된 인공지능 로봇의 개발·인증·교육·정책 등에 널리 활용되어, 사회적으로 공감받고 안전한 인공지능 로봇 산업화의 초석이 되기를 기대한다.

인공지능 의료윤리: 영상의학 영상데이터 활용 관점의 고찰 (Ethics for Artificial Intelligence: Focus on the Use of Radiology Images)

  • 박성호
    • 대한영상의학회지
    • /
    • 제83권4호
    • /
    • pp.759-770
    • /
    • 2022
  • 인공지능의 연구 개발 및 활용에서 윤리의 중요성이 의료분야뿐 아니라 전 사회적으로 점차 널리 인식되고 있다. 이 종설은 영상의학 영상데이터를 인공지능 연구에 활용할 때 개인정보의 보호 및 데이터에 대한 권리 측면에서 윤리적으로 고려할 사항들에 대해서 국내 독자들에게 실용적인 정보를 제공하고자 한다. 따라서 이 글에 담긴 내용은 많은 부분이 관련된 국내 법과 정부 제도에 바탕을 두고 있다. 인공지능의 연구 개발 및 활용에서 개인정보 보호는 매우 중요한 윤리적 원칙이며 연구 데이터의 적절한 가명처리는 개인정보 보호를 위한 핵심 방법이다. 아울러 인공지능 연구 개발에 의료 데이터를 상업적 이해관계를 최소화하며 윤리적으로 공유할 필요성도 부각되고 있다. 연구 데이터 공유는 개인정보 유출의 위험을 증가시키므로 개인정보 보호에 더욱 주의가 필요하다.

인공지능 윤리 원칙 Seoul PACT를 적용한 지능형 전자정부 서비스 윤리 가이드라인 (Seoul PACT : Principles of Artificial Intelligence Ethics and its Application Example to Intelligent E-Government Service)

  • 김명주
    • 한국IT서비스학회지
    • /
    • 제18권3호
    • /
    • pp.117-128
    • /
    • 2019
  • The remarkable achievements of the artificial intelligence in recent years are also raising awareness about its potential risks. Several governments and public organizations have been proposing the artificial intelligence ethics for sustainable development of artificial intelligence by minimizing potential risks. However, most existing proposals are focused on the developer-centered ethics, which is not sufficient for the comprehensive ethics required for ongoing intelligent information society. In addition, they have chosen a number of principles as the starting point of artificial intelligence ethics, so it is not easy to derive the guideline flexibly for a specific member reflecting its own situation. In this paper, we classify primitive members who need artificial intelligence ethics in intelligent information society into three : Developer, Supplier and User. We suggest a new artificial intelligence ethics, Seoul PACT, with minimal principles through publicness (P), accountability (A), controllability (C), and transparency (T). In addition, we provide 38 canonical guidelines based on these four principles, which are applicable to each primitive members. It is possible for a specific member to duplicate the roles of primitive members, so that the flexible derivation of the artificial intelligence ethics guidelines can be made according to the characteristics of the member reflecting its own situation. As an application example, in preparation for applying artificial intelligence to e-government service, we derive a full set of artificial intelligence ethics guideline from Seoul PACT, which can be adopted by the special member named Korean Government.

포스트휴먼 시대의 로봇과 인간의 윤리 (The Ethics of Robots and Humans in the Post-Human Age)

  • 유은순;조미라
    • 한국콘텐츠학회논문지
    • /
    • 제18권3호
    • /
    • pp.592-600
    • /
    • 2018
  • 로봇의 영역이 인간의 정신적, 감정적 노동까지 대신하는 지능형 로봇으로 진화하면서 인간과 로봇 관계에서 발생할 수 있는 '로봇윤리'가 중요한 이슈로 떠오르고 있다. 본 연구는 포스트휴먼 시대에 필요한 인간과 로봇의 윤리 성찰을 고찰하고자 하며, 그 중심 내용은 다음과 같다. 첫째, 로봇의 윤리적 실천 가능성에 도전하는 윤리 소프트웨어 개발 사례를 통해 오로지 강제 입력된 윤리 코드만으로 로봇이 과연 옳고 그름을 판단할 수 있는가라는 문제의식에서 출발한다. 둘째, 로봇윤리는 인간의 편향성이 내재된 데이터를 학습했을 때 발생할 수 있는 비윤리적 문제들을 고려하고, 더불어 국가와 문화 간의 윤리적 상대주의를 인정해야 한다. 셋째, 로봇윤리는 로봇을 위한 윤리 강령만이 아니라, 인간과 로봇이 서로 공진화할 수 있는 새로운 개념의 '인간 윤리'가 전제되어야 한다.

미디어 산업 AI 활용성에 관한 고찰 : 저널리즘 분야 적용의 주요 쟁점을 중심으로 (Research on Utilization of AI in the Media Industry: Focusing on Social Consensus of Pros and Cons in the Journalism Sector)

  • 한정현;유하진;강민준;이한진
    • 문화기술의 융합
    • /
    • 제10권3호
    • /
    • pp.713-722
    • /
    • 2024
  • 본 연구는 인공지능(AI) 기술의 발전이 저널리즘 분야에 가져온 혁신과 변화를 조명하고, 이로 인해 발생하는 주요 윤리적 쟁점들을 검토하여, 저널리즘 분야에서 AI의 활용성을 논의한다. 블룸버그, 가디언, 월스트리트저널(WSJ), 워싱턴포스트(WP), 뉴욕타임즈(NYT) 등 전 세계 언론 및 방송사들은 취재 데이터 분석, 기사문장 생성, 뉴스제작에 이르기까지 다양한 방면에서 AI를 적극 활용 중이다. 이에 본 논문은 국내외 주요 미디어AI 서비스 유형과 특징을 속도와 규모, 다양성, 가치향상, 정확성 측면에서 종합적으로 분석하여 AI 저널리즘의 영향력과 발전 가능성을 평가한다. 나아가 균형 잡힌 시각을 유지하며 AI 도입의 기술적, 경영적, 법적 주요 쟁점들을 파악하고, 알고리즘 편향과 필터버블 등 첨단기술의 발전이 저널리즘 영역에 가져오는 도전을 체계적으로 준비하고자 한다. 마지막으로 AI와 미디어 산업의 상호지향적인 발전 방향을 모색하기 위해 사회적 합의를 통한 전향적 AI리터러시 원칙과 윤리적 가이드라인 개선의 필요성을 제언하며, 저널리즘의 본질적 가치와 임무를 조망한다.

공공디자인 정책 결정에 ChatGPT의 활용 가능성에 관한연구 (A Study on the Potential Use of ChatGPT in Public Design Policy Decision-Making)

  • 손동주;윤명한
    • 서비스연구
    • /
    • 제13권3호
    • /
    • pp.172-189
    • /
    • 2023
  • 본 연구는 공공디자인 정책 결정에 있어 거대 언어 및 정보 모델인 ChatGPT가 기여할 가능성이 있는지에 대해 공공디자인 가진 특징을 중심으로 연구했다. 공공디자인은 디자인의 원리와 접근법을 사용하여 사회문제를 해결하고, 공공서비스 개선을 목표로 한다. 공공디자인 정책과 계획을 수립하기 위해서는 지역의 일반 현황, 인구 현황, 인프라 현황, 자원 현황, 안전 현황, 정책 현황, 법규 현황, 경관 현황, 공간 현황, 공공디자인 현황, 지역 이슈 등 방대한 자료를 기반으로 한다. 따라서 공공디자인은 방대한 자료와 더불어 방대한 언어를 수록하는 디자인 연구 분야다. 인공지능 기술의 급속한 발전과 공공디자인의 중요성을 고려해 ChatGPT와 같은 거대 언어 및 정보 모델이 공공디자인 정책에 어떻게 기여할 수 있는지 알아보고자 한다. 이와 함께, 공공디자인의 개념 및 원칙, 그리고 정책 개발과 실행에 대한 역할을 검토하고, ChatGPT의 개요 및 특징, 적용 사례나 ChatGPT의 선행 연구를 살펴 공공디자인 정책 결정에 활용할 수 있는지 연구했다. 연구 결과, ChatGPT는 공공디자인 정책 수립과정에서 방대한 언어 정보를 제공하고, 의사결정의 지원 역할이 가능하다는 사실을 밝혔다. 특히, ChatGPT는 정책 수립과정에서 다양한 관점을 제공하고, 정책 결정에 필요한 정보를 신속하게 제공하는 데 유용함이 있었다. 이와 함께 정부 정책 개발에 인공지능을 활용하는 추세라는 것이 여러 논문을 통해 확인되었다. 하지만, ChatGPT의 활용에는 윤리적, 법적, 개인 프라이버시 등의 문제 또한 발견되었다. 무엇보다 윤리적인 문제가 제기되었으며, 편향성과 공정성 관련 문제 또한 나타났다. ChatGPT를 공공디자인의 정책 결정에 실질적으로 활용하려면, 첫째, 정책 개발자와 공공디자인 전문가의 역량을 일정부분 키워 활용해야 한다. 둘째, 가칭 '인공지능 정책 활용에 관한 조례'라는 법령(法令)을 마련해 법률(法律)적 정비가 이뤄지기 전까지 지속해서 보완해가면서 활용하는 것이다. 현재로서는 이 두 가지 방안을 적용해 활용하는 것이 필요하다. 따라서 공공디자인 정책 결정에 있어 ChatGPT와 같은 거대 언어 및 정보 모델의 활용은 방대한 언어를 수록하는 디자인 분야에서는 활용할 가치가 충분하다는 것이다.

감염병 위기 상황에서 감염병 데이터의 수집 및 활용에 관한 법적 쟁점 -미국 감염병 데이터 수집 및 활용 절차를 참조 사례로 하여- (Legal Issues on the Collection and Utilization of Infectious Disease Data in the Infectious Disease Crisis)

  • 김재선
    • 의료법학
    • /
    • 제23권4호
    • /
    • pp.29-74
    • /
    • 2022
  • 2020년 예상하지 못한 형태의 COVID-19 감염병의 급속도로 전파·확산으로 국민의 "생명·신체·재산"에 피해를 줄 수 있는 재난관리법상 사회재난이 발생하면서, 감염병병원체의 검사 및 발생 사실에 대한 신고 및 보고(제11조), 실태조사(제17조), 역학조사(제18조), 예방접종을 위한 역학조사(제29조) 등을 통하여 수집된 정보는 발전된 데이터 인식 및 처리 기술, 인공지능을 통한 학습 기술 등과 결합하여 (1) 의료자원 배분을 위한 정책적 근거 마련(병상배정, 방역물품 공급), (2) 감염병 확산 방지를 위한 방역 정책적 근거 마련(집합금지·영업제한 등 정책 결정, 확진자 발생 현황 예측을 위한 연구 및 정책 결정), (3) 예방접종 촉진 및 피해 현황 파악 등 감염병 위기 상황에서 의사결정의 중요한 근거로 활용되어 왔다. 이러한 감염병 데이터를 활용한 의료정책의 결정은 방역정책 결정, 정보제공, 의약품 개발 및 연구 기술 발전에 기여하여 왔으며, 국제적으로 감염병 데이터의 활용 법제 마련에 관한 논의가 증가하면서 감염병 데이터 활용의 법적인정 범위와 한계에 대한 관심이 높아졌다. 감염병 데이터의 활용은 감염병 전파 및 확산 차단 목적, 감염병의 예방·관리·치료업무 목적, 감염병 연구 목적으로 분류할 수 있으며, 정보의 활용은 감염병 위기 상황을 전제로 논의된다. 먼저 민감정보인 "진료기록, 예방접종약, 예방접종, 기저질환 유무, 건강순위, 장기요양인정등급, 임신여부 등"에 관한 정보의 경우, 업무 목적으로 수집·제공·활용하는 경우 개인정보보호법상 활용이 인정되는 "타법에서 정하는 업무" 범위에 대한 해석이 요구된다. "감염병 전파 및 확산 차단, 감염병의 예방·관리·치료" 목적의 업무수행의 경우 입법적으로 명확하게 사전에 규율하기 쉽지 않다. 따라서 이를 인정하기 위한 전제로 먼저 대법원 및 헌법재판소에서 의료행위의 개념을 명확하게 정의하기 어렵다는 부분을 차용할 수 있다. 따라서 현실적으로 구체적인 업무수행의 행위 유형은 후행적으로 "입법목적, 학문적 원리, 전문성, 사회통념"을 기준으로 판단하여 재량권의 일탈 또는 남용의 논리로 해석하게 된다. 목적 달성에 필요한 정보수집 대상의 확정, 수집 정보의 활용방안의 한계 설정을 위하여 감염병으로 인한 공중보건 위기 상황에서 데이터 활용의 공익적 필요성이 있는지를 우선 판단하되 해당 정보의 활용이 정보주체나 제3자의 이익을 부당하게 침해하지 않았는지를 기준으로 판단한다. 이익형량의 세부 기준으로 위기 상황에서 감염병의 전파속도와 정도, 해당 민감정보의 처리 없이 목적달성을 할 수 있었는지, 민감정보의 처리를 통한 방역정책 도입의 효과성 등을 기준으로 판단하게 된다. 한편, 연구목적 감염병데이터의 수집·제공·활용은 원칙적으로 개인정보보호법상 가명처리, 생명윤리법상 동의와 기관생명윤리위원회의 심의, 국민건강보험공단 자료 활용 시 자료제공 심의위원회 절차를 거쳐 활용되게 된다. 따라서 가명처리 및 데이터심의위원회의 심의 또는 정보주체의 동의 및 기관생명윤리심의위원회의 심의를 거치므로 원칙적으로 절차적 타당성을 확보하는 한 연구목적 활용은 인정된다. 다만, 가명화 또는 익명화 절차를 명확히하여 연구책임자의 부담을 줄여야 하며, 포괄적 동의제도와 옵트아웃 제도의 도입 또는 동의 절차가 명확히 마련되어야 하며, 기술발전으로 나타날 수 있는 재식별 가능성 또는 보안성 확보 절차를 명확히 규정할 필요가 있을 것으로 생각된다.