• 제목/요약/키워드: 인공적 도덕 행위자

검색결과 3건 처리시간 0.019초

인공물과 책임귀속 조건 (Artifacts and Conditions for Attribution of Responsibility)

  • 김남호
    • 철학연구
    • /
    • 제147권
    • /
    • pp.59-76
    • /
    • 2018
  • 어떤 존재 x를 도덕적 행위자로 만들어주는 조건은 무엇인가? 인공물도 도덕적 행위자일 수 있는가? 도덕적 행위자는 옳고 그름을 판단할 수 있는 이성적 존재로 간주된다. 본 논문에서는 우선 이성적 존재에 대한 조건에 대한 데이빗슨의 입장을 비판적으로 분석하면서, 명제적 태도(propositional attitude)를 가지는 믿음과 그 배경으로서의 믿음들의 연결망은 이성적 존재의 필요조건이 될 수 없음이 논증된다. 그런 뒤에 도덕적 행위자의 조건에 대한 프로케소바(Eva $Proke{\check{s}}ov{\acute{a}}$)의 입장에 대한 분석을 통해서 프로케소바가 제시한 조건들은 단지 피상적인 요소들의 병렬적 나열에 불과함이 밝혀진다. 본 논문에서 도덕적 행위자는 이성적 행위자를 포함하며, 강한 일인칭 시점이 이성적 행위자와 도덕적 행위자의 필요충분조건임이 논증된다. 결론적으로 도덕적 행위자로서의 가능성을 완강하게 부정하는 강한 회의론 대신에 도덕적 행위자의 조건을 제시함으로써 인공물의 행위자 가능성에 잠정적 한계를 설정해주는 온건한 회의론의 밑그림이 제시될 것이다.

확장된 자아는 도덕적 주체일 수 있는가? - 행위자로서의 인간인격 - (May Extended Self be Moral Subject? - The Human Person as a Moral Agent -)

  • 김남호
    • 철학연구
    • /
    • 제144권
    • /
    • pp.51-82
    • /
    • 2017
  • "성찰"의 제2성찰에서 데카르트는 '그러면 도대체 나는 무엇인가sed quid igitur sum'라고 묻는다. 클락(A. Clark)은 우리의 본질 규정에 해당하는 이 물음에 "우리는 부드러운 자아들"이라고 주장한다. 클락의 생각은 인지적 과정(cognitive process), 인지적 상태(cognitive state), 그리고 자아(self)가 생물학적 유기체 넘어로 확장될 수 있다는 확장된 마음 이론(the extended mind theory)의 자연스러운 귀결이다. 그러나 확장된 자아 개념이 도덕적 행위자의 자격을 가지기 힘들어 보인다. 지금까지 주로 인지적 과정과 인지적 상태의 확장 가능성에 대해 논쟁이 벌어졌지만, 확장된 자아에 행위의 책임귀속성이 부여될 수 있는 지에 관해서는 많은 논의가 이뤄지지 않았다. 본 논문에서 우선 레이코프와 존슨의 은유 이론과 행위자와 행위의 존재론적 본성에 대한 분석을 통해서 확장된 자아 개념이 기껏해야 은유적 수사법에 불과할 뿐, 행위자와 행위의 존재론적 본성에 대한 합리적인 이해로서는 적합하지 않다는 점이 드러날 것이다. 또한 인공적 도덕 행위자(AMA)의 문제를 분석하면서, 행위자의 필요충분조건으로 '강한 일인칭 시점'이 제시될 것이다. 끝으로, 확장된 자아 개념은 행위자로서의 우리 자신에 대한 이론적 설명으로는 적합하지 않다는 것이 명확하게 드러날 것이며, 인간인격(human person) 개념이 그 대안으로 제시될 것이다.

포스트휴먼 시대의 로봇과 인간의 윤리 (The Ethics of Robots and Humans in the Post-Human Age)

  • 유은순;조미라
    • 한국콘텐츠학회논문지
    • /
    • 제18권3호
    • /
    • pp.592-600
    • /
    • 2018
  • 로봇의 영역이 인간의 정신적, 감정적 노동까지 대신하는 지능형 로봇으로 진화하면서 인간과 로봇 관계에서 발생할 수 있는 '로봇윤리'가 중요한 이슈로 떠오르고 있다. 본 연구는 포스트휴먼 시대에 필요한 인간과 로봇의 윤리 성찰을 고찰하고자 하며, 그 중심 내용은 다음과 같다. 첫째, 로봇의 윤리적 실천 가능성에 도전하는 윤리 소프트웨어 개발 사례를 통해 오로지 강제 입력된 윤리 코드만으로 로봇이 과연 옳고 그름을 판단할 수 있는가라는 문제의식에서 출발한다. 둘째, 로봇윤리는 인간의 편향성이 내재된 데이터를 학습했을 때 발생할 수 있는 비윤리적 문제들을 고려하고, 더불어 국가와 문화 간의 윤리적 상대주의를 인정해야 한다. 셋째, 로봇윤리는 로봇을 위한 윤리 강령만이 아니라, 인간과 로봇이 서로 공진화할 수 있는 새로운 개념의 '인간 윤리'가 전제되어야 한다.