• 제목/요약/키워드: AI 윤리

검색결과 84건 처리시간 0.02초

금융분야 AI의 윤리적 문제 현황과 해결방안

  • 이수련;이현정;이아람;최은정
    • 정보보호학회지
    • /
    • 제32권3호
    • /
    • pp.57-64
    • /
    • 2022
  • 우리 사회에서 AI 활용이 더욱 보편화 되어가고 있는 가운데 AI 신뢰에 대한 사회적 요구도 증가했다. 특히 최근 대화형 인공지능'이루다'사건으로 AI 윤리에 대한 논의가 뜨거워졌다. 금융 분야에서도 로보어드바이저, 보험 심사 등 AI가 다양하게 활용되고 있지만, AI 윤리 문제가 AI 활성화에 큰 걸림돌이 되고 있다. 본 논문에서는 인공지능으로 발생할 수 있는 윤리적 문제를 활용 도메인과 데이터 분석 파이프라인에 따라 나눈다. 금융 AI 기술 분야에 따른 윤리 문제를 분류했으며 각 분야별 윤리사례를 제시했고 윤리 문제 분류에 따른 대응 방안과 해외에서의 대응방식과 우리나라의 대응방식을 소개하며 해결방안을 제시했다. 본 연구를 통해 금융 AI 기술 발전에 더불어 윤리 문제에 대한 경각심을 고취시킬 수 있을 것으로 기대한다. 금융 AI 기술 발전이 AI 윤리와 조화를 이루며 성장하길 바라며, 금융 AI 정책 수립 시에도 AI 윤리적 문제를 염두해 두어 차별, 개인정보유출 등과 같은 AI 윤리 규범 미준수로 파생되는 문제점을 줄이며 금융분야 AI 활용이 더욱 활성화되길 기대한다.

A Conceptual Architecture for Ethic-Friendly AI

  • Oktian, Yustus-Eko;Brian, Stanley;Lee, Sang-Gon
    • 한국컴퓨터정보학회논문지
    • /
    • 제27권4호
    • /
    • pp.9-17
    • /
    • 2022
  • 최첨단 AI 시스템은 방대한 데이터 수집에서 알고리즘 편향에 이르기까지 많은 윤리적 문제를 드러내고 있다. 이에 본 논문에서는 연합학습과 블록체인을 결합하여, 더 윤리적인 AI 아키텍처를 제안하였다. AI의 윤리성에 관한 중요한 문제들을 논의하고, 문헌조사를 통하여 윤리적 AI 시스템에 대한 요구사항을 연구하고 도출한다. 제안한 아키텍처의 요구사항 만족을 분석하였다. 제안한 AI 구조를 디자인에 채택함으로써 AI 서비스를 보다 윤리적으로 수행할 수 있다.

연구윤리에서 인공지능 관련 이슈와 동향 (Issues and Trends Related to Artificial Intelligence in Research Ethics)

  • 이선희
    • 보건행정학회지
    • /
    • 제34권2호
    • /
    • pp.103-105
    • /
    • 2024
  • 인공지능(artificial intelligence, AI) 기술이 산업 전반으로 빠르게 확산되고 있다. AI를 활용하게 되면서 생기는 윤리적 이슈에 대한 관심도 높아지고 있다. 특히 건강과 생명을 주제로 연구하는 보건의료 분야에서 AI와 관련된 윤리적 이슈는 중요한 주제이다. 연구하고 출판하는 과정에서 AI 도구를 이용하였을 때 주의해야 할 연구윤리적 쟁점을 살펴보고자 한다. 연구과정에서 AI tool을 사용하여 번역하거나 인용하고 문장을 수정하는 과정에서 연구자가 의도하지 않은 표절이 생길 수 있어 주의가 필요하다. 현재 AI에게는 저작권이 부여되지 않기 때문에 AI 도구를 사용하여 생기는 연구윤리적 문제는 저자가 책임질 수밖에 없다. 연구자는 AI 도구를 활용하였을 경우 어떤 도구를 어떻게 활용했는지를 연구논문에 명시하도록 권고된다. 연구과정에서 AI 도구로 인한 연구윤리 쟁점 사례가 축적되어가면 다양한 지침들이 정비될 것으로 예상된다. 연구자는 연구출판과정에서 AI 도구의 사용과 관련된 국제적인 합의와 지침 동향에 대해 지속적으로 관심을 가져야 한다.

대화형 AI 시스템에서 윤리적 UX 접근 방식의 개념 모델 (Conceptual Model of Ethical UX Approach in Conversational AI System)

  • 안성희
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송∙미디어공학회 2022년도 하계학술대회
    • /
    • pp.572-573
    • /
    • 2022
  • 본 논문은 메타버스 환경에서 문제가 대두되고있는 AI 윤리(ethic)를 배경으로 인터랙션을 통해 사람들의 온라인과 오프라인의 결정요소에 직접적으로 영향을 미치는 대화형 AI가 어떻게 윤리적으로 진화될 수 있을지에 대한 공학적 솔루션을 UX 관점으로 찾아보는 기술 전략 연구라고 할 수 있다. 연구의 가설은 AI 의 머신러닝과정에 개별 사용자 그룹의 경험데이터가 반드시 포함되고 고려되어야 AI 는 오류값을 줄이고 윤리적으로 대응할 수 있다는 전제이다. 이를 위하여 본 논문은 기존의 머신러닝과 대화형 AI 의 UX 관점의 다이아로그 플로우 등을 연구 분석하고 사용자 데이터들을 실험하여 메타버스 서비스 환경에서의 기존에 논의되고 있는 컨택스트기반의 AI 머신러닝 과정에 사용자의 정성적 경험데이터를 추가한 윤리적 UX 접근 개념 모델을 제안 하였다. 아직은 개념모델 단계이고 시스템에서는 지금까지 다르지 않았던 비정량적인 감정과 융합적경험을 어떻게 문화적으로 코드화 하고 시스템적인 랭귀지와 연결시킬 수 있을지에 대한사용자 연구가 후속연구로 진행될 예정이다.

  • PDF

인공지능 스피커의 교육적 활용에서의 윤리적 딜레마 (Ethical Dilemma on Educational Usage of A.I. Speaker)

  • 한정혜;김종욱
    • 창의정보문화연구
    • /
    • 제7권1호
    • /
    • pp.11-19
    • /
    • 2021
  • 인공지능 국가전략이 발표되면서 인공지능의 교육에 대한 다양한 정책들이 제안되고 있고 교사를 대상으로 하는 인공지능융합교육도 활발히 추진되고 있다. 또한 인공지능 스피커는 각 가정에 판매 및 보급이 되고 있는 실정이고, 인공지능 스피커의 교육적 활용 현장연구들이 시작되고 있다. 이 연구에서는 인공지능 윤리에서 인공지능 스피커가 발생시킬 논란이 될 문제들을 살펴보고, 가정이나 학교에서 인공지능 스피커가 활용될 때 발생할 수 있는 윤리적 딜레마를 도출해보고자 한다. 이 딜레마는 인공지능 스피커에 대한 집단별 도덕적 판단력 수준 측정 MCT(Moral Competence Test)에 활용할 수 있을 것이다.

인공지능기술 윤리성 인식 척도개발 연구 (Development and Validation of Ethical Awareness Scale for AI Technology)

  • 김도연;고영화
    • 디지털융복합연구
    • /
    • 제20권1호
    • /
    • pp.71-86
    • /
    • 2022
  • 본 연구의 목적은 인공지능 기술 또는 서비스를 수용하는 사용자의 윤리성 인식을 측정하기 위한 척도 개발 및 타당화에 있다. 이를 위해 인공지능 윤리성 관련 문헌 분석을 통해 구성개념 및 속성을 확인하였다. 전국의 10대-70대 남녀 133명(개방형 설문:1차 문항), 273명(예비조사:2차 문항), 500명(본조사:최종 문항)을 대상으로 실시한 온라인 설문조사 결과를 확인적 요인분석에 의해 정제하여 최종적으로 인공지능기술 윤리성 척도를 개발하였다. 인공지능기술 윤리성 인식 척도는 총 4개 요인(투명성, 안전성, 공정성, 책임성) 16개 문항으로 개발하여 일반적인 인공지능기술 관련 윤리성 인식을 세부 요인별로 측정할 수 있도록 하였다. 개발된 척도를 활용하여 다양한 분야의 측정 변인들과의 관련성을 밝힐 수 있을 것이며, 인공지능기술 발전의 초기 단계에서 윤리성 인식을 높이기 위한 기초 데이터를 제공하는 데 중요한 역할을 할 것으로 기대한다.

AI 윤리와 규제에 관한 표준 프레임워크 설정 방안 연구 (A Study on How to Set up a Standard Framework for AI Ethics and Regulation)

  • 남문희
    • 한국융합학회논문지
    • /
    • 제13권4호
    • /
    • pp.7-15
    • /
    • 2022
  • 정보와 기술의 탈중앙화/분권, 공유/개방, 연결을 통한 개별 맞춤 시대의 지능화 세계 지향으로 그 어느 때 보다도 인공지능에 대한 관심과 기술적 담론 속에 기대와 우려가 교차하는 경향을 자주 보게 된다. 최근에는 2045년 전, 후로 AI의 특이성(Singularity)이 나타날 것이라는 미래학자들의 주장도 쉽게 찾아볼 수 있다. 이제는 다가올 인공지능 시대에서 AI와 함께 상생하고 번영하는 공존 패러다임을 만들기 위한 준비의 일환으로 보다 올바른 AI 윤리와 규제 설정을 위한 표준 프레임워크가 요구되고 있다. 주요지침 설정 누락의 위험성 배제와 타당하고 보다 합리적인 지침 항목과 평가 기준을 가늠 할 수 있는 방안이 점차 큰 연구문제로 나타나고 있기 때문이다. 이런 연구문제 해결과 동시에 AI 윤리와 규제 설정에 대한 지속적인 경험과 학습효과가 연결 발전될 수 있도록 국제기구/국가/기업의 AI 윤리와 규제에 대한 가이드 라인 자료 등을 수집하여 설정 연구모형과 텍스트 마이닝 탐색 분석을 통해 표준 프레임워크(SF: Standard Framework) 설정 방안을 연구 제시한다. 본 연구결과는 향후 보다 발전적인 AI 윤리와 규제지침 항목 설정과 평가 방안연구에 기초 선행연구 자료로 기여될 수 있을 것이다.

무한연결시 4차 산업기술의 이용 가능성 분석을 통한 감성 인공 지능의 자율 결정권에 관한 연구 (A Study on the Autonomous Decision Right of Emotional AI based on Analysis of 4th Wave Technology Availability in the Hyper-Linkage)

  • 서대성
    • 융합정보논문지
    • /
    • 제9권8호
    • /
    • pp.9-19
    • /
    • 2019
  • 본 논문은 인공 지능 기술의 효과는 산업에 미치는 영향과 일상생활의 변화 등에 관한 연구이다. 또한 감성 인공 지능 개발은 차세대 3D 벡터 감응 인공 지능을 대비한다. 이것은 인공 지능의 의사 결정 권력의 주요 키워드를 제시한다. 특히 비 윤리적 학습의 중요성과 윤리적 가치 판단을 반영하는 의사 결정 시스템의 구현으로 인해 중요한 결과가 달성된다. 이것은 데이터 기반 시뮬레이션이며 (1) 사용 가능한 데이터, (2) 시뮬레이션 목표를 위한 기술을 필요로 한다. 실제 의도된 시뮬레이션 기반 연구의 일반적인 내용을 고려한다. 현재 기존 연구는 의미있는 연구 동기에 중점을 두고있느나, 본 연구는 기술의 방향성을 제시하는 결과이다. 그 결과 실증분석은 각국이 인공 지능에 대한 신기술 기업의 윤리 책임감에 대한 의사 결정력과 일치한다. 결론적으로, AI / ML의 기술적 측면에 대한 윤리적 주제에 대해 달성 할 수 있는 구체적인 기여와 해석이 필요하다. 이는 인공지능 의사 결정에서 인간의 공감의 분석력이 더욱 부각될 수 있다.

UX-기반 메타버스 윤리적 AI 학습 모델 연구 (A Study on the UX-based Ethical AI-Learning Model for Metaverse)

  • 안성희
    • 방송공학회논문지
    • /
    • 제27권5호
    • /
    • pp.694-702
    • /
    • 2022
  • 본 논문은 메타버스 환경에서 대화형 AI가 어떻게 윤리적으로 진화될 수 있을지에 대한 솔루션을 UX(사용자경험) 관점으로 찾아보는 기술 전략 연구이다. 대화형 AI는 사람들과의 직접적인 인터랙션을 통해 사람들의 온·오프라인의 결정요소에 영향을 미치기 때문에 메타버스 AI 윤리가 필수적으로 반영되어야 한다. 대화형 AI의 머신러닝의 과정에는 사용자 개인의 경험데이터와 함께 문화적 코드들이 포함되고 고려되어야 사용자경험의 오류값을 줄일 수 있다. 이를 통해 초 개인화된 메타버스의 서비스가 사회적 가치를 고려하며 윤리적으로 진화할 수 있다. 위와 같은 가설을 기반으로 본 논문의 연구 결과로 메타버스 서비스 환경에서 컨택스트 기반의 대화형 AI를 위한 머신러닝(ML)과정에 사용자의 경험데이터를 추가한 선행적 관점의 개념 모델을 개발, 제안하였다.

실천력 강화를 위한 인공지능 윤리 교육 모델 (An Artificial Intelligence Ethics Education Model for Practical Power Strength)

  • 배진아;이정훈;조정원
    • 산업융합연구
    • /
    • 제20권5호
    • /
    • pp.83-92
    • /
    • 2022
  • 인공지능 기술로 인한 사회·윤리적 문제 사례가 발생하면서 인공지능의 위험과 부작용에 대한 사회적 관심과 함께 인공지능 윤리가 주목받고 있다. 인공지능 윤리는 알고, 느끼는 것에 그치는 것이 아니라 행동과 실천으로 이루어져야 한다. 이에 본 논문은 인공지능 윤리의 실천력을 강화하기 위한 인공지능 윤리 교육 모델을 제안하고자 한다. 인공지능 윤리교육 모델은 선행 연구 분석을 통해 교육목표와 인공지능을 이용한 문제해결 프로세스를 도출하고, 실천력 강화를 위한 교수학습방법을 적용하였으며 기존에 제안된 인공지능 교육 모델과 비교 분석하여 그 차이를 도출하였다. 본 논문에서 제안하는 인공지능 윤리 교육 모델은 컴퓨팅 사고력 함양과 인공지능 윤리의 실천력 강화를 목표로 한다. 이를 위해 인공지능을 이용한 문제해결 프로세스를 6단계로 제안하고, 인공지능 특성을 반영한 인공지능 윤리요소를 도출하여 문제해결 프로세스에 적용하였다. 또한, 인공지능 윤리 의식에 대한 사전·사후 평가와 과정 평가를 통해 인공지능 윤리 기준을 무의식적으로 확인하게 하고, 학습자 중심의 교수학습방법을 적용하여 학습자의 윤리 실천을 습관화하도록 설계하였다. 본 연구를 통해 개발된 인공지능 윤리 교육 모델이 컴퓨팅 사고력을 함양하고, 인공지능 윤리가 실천으로 이어지는 인공지능 교육이 될 수 있을 것으로 기대한다.