책소개
도덕적 인간, AI가 길을 안내하다
우리는 왜 여전히 윤리 교육이 필요한가? 도덕은 인간 본성에 내재된 것이지만, 심신미약과 편향, 정서적 한계는 올바른 판단을 방해한다. 이 책은 이러한 인간의 도덕적 결핍을 과학기술, 특히 인공지능을 통해 보완할 수 있다는 가능성을 탐구한다. 생의학적 ‘도덕적 생명 향상’의 한계를 넘어, AI를 ‘도덕적 조언자’, ‘이상적 관찰자’, ‘소크라테스식 대화자’로 활용하는 다양한 방안을 제시한다.
감시와 통제가 아닌 부드러운 개입과 설득으로, AI는 인간의 자율성과 도덕성을 동시에 지지할 수 있을까? 도덕의 기준과 판단이 흔들리는 세계에서, 인간의 도덕 향상을 위한 AI 활용법을 철학적으로, 실천적으로 고찰한다. 윤리의 종말이 아닌 새로운 윤리의 탄생을 기대하며 도덕성과 기술의 접점을 성찰하는 이들에게 필요한 통찰을 담았다.
200자평
도덕성은 타고나는가, 길러지는가? 이 책은 AI를 통해 인간의 도덕적 판단과 이타성을 향상시킬 수 있는 가능성을 탐색한다. 감시가 아닌 설득의 기술로, 윤리와 기술의 접점을 사유한다. 인공지능총서. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
이을상
부산대학교 인문학연구소 전임연구원이다. 동아대학교에서 철학 박사학위를 받았다. 동아대학교 석당연구원 전임연구원, 동의대학교 문화콘텐츠연구소 연구교수 등을 역임했다. 한국철학적 인간학회장을 역임했다(2021~2023). 1999년 새한철학회가 수여하는 제4회 만포학술상, 2014년 대한철학회가 수여하는 제5회 운제학술상을 받았다. 응용윤리학과 철학적 인간학에 관심을 두고 연구하고 있다. 저서로 《도덕적 생명 향상》(2022), 《나는 긍정심리학을 긍정할 수밖에 없다》(2020), 《사회생물학, 인간의 본성을 말하다》(공저, 2007), 번역서로는 《인간, 그 본성과 세계에서의 위치》(공역, 2025), 《우주에서 인간의 위치》(2025), 《과학적 사실의 기원과 발전》(2021), 《지식의 형태와 사회》(공역, 2007), 《윤리학에서 형식주의와 실질적 가치 윤리학》(공역, 1998)이 있다. 논문 “가치와 인격”(박사학위, 1996) 등과 다수의 기고문이 있다.
차례
비도덕적 ‘인간’과 도덕적 ‘사회’의 조화
01 도덕적 행위자로서 AI의 한계
02 도덕적 AI 향상 방안
03 도덕적 향상을 위한 AI 활용법
04 도덕적 AI
05 이상적 관찰자
06 로봇 너지
07 온정주의
08 소크라테스식 대화자
09 세부 논의의 딜레마
10 AI와 도덕 교육
책속으로
오늘날 AI가 많은 기술적 한계에 직면해 있는 것도 사실이다. 그런데도 우리가 기계 윤리를 천착하는 까닭은 AI의 ‘소프트웨어’에 몇 가지 윤리적 지침을 지정하면, AI를 새로운 수행에 활용할 수 있음이 확인되었기 때문이다. 그것도 다름 아닌 AI를 인간의 도덕성 향상에 이용할 수 있다는 점이다. 예를 들어 내가 ‘공정 경제’를 선호하고, 그래서 (에티오피아의) 어린아이와 여성의 노동력을 착취하여 수확된 다국적 기업의 커피를 마시지 않겠다고 스스로 다짐한다고 치자. 그러나 실제로 상점에서 커피 원두를 사거나 커피점에서 내가 커피를 주문할 때, 이를 확인하는 일은 좀처럼 쉽지 않다. 물론 바코드로 원산지와 생산 이력을 확인하면 가능한 일일 것이지만, 이마저도 귀찮고 성가실 때가 많다. 이때 소프트웨어가 일일이 알려 준다면, 이로써 나는 공정 경제를 성공적으로 실천할 수 있지 않을까?
-01_“도덕적 행위자로서 AI의 한계” 중에서
그러나 가톨릭 신자가 가톨릭의 윤리 체계 내에서는 조화를 이루더라도, 가톨릭에 반대하는 사람들 또는 비가톨릭 신자와 반성적 평형을 이루기는 말처럼 쉽지 않다. 이러한 갈등 상황의 해소에는 다시금 로스(W. D. Ross)의 ‘조건부 의무’가 대안이 될 수 있을 것이다. 조건부 의무란 여러 의무 중에서 우선순위에 따라 의무가 결정되는 것을 말한다. 그 기준으로 로스는 ① 선을 최대로 산출하는 것, ② 신중하고 분명하게 선택하는 것, ③ 다수의 의식 있는 사람이 선택한 것을 제시한다. 이러한 기준을 충족하는 조건부 의무에는 자신의 과거 행위로 인해 생기는 ‘신의(Fidelity)’와 ‘보상(Reparation)’의 의무, 타인의 과거 행위로 생기는 ‘보은(Gratitude)’의 의무, 가능한 최대 선을 행해야 하는 ‘선행(Beneficence)’의 의무, 타인에게 위해를 가하지 말아야 하는 ‘악행 금지(Nonmaleficence)’의 의무, 그리고 선의 극대화와 함께 공적에 따라 선을 균등하게 분배해야 하는 ‘정의(Justice)’의 의무, 자신의 지성과 덕행을 닦아야 하는 ‘자기 개선(Self-improvement)’의 의무가 있다.
-03_“도덕적 향상을 위한 AI 활용법” 중에서
여기서 한 걸음 더 나아가 로봇에 의해 너지가 가능하려면, 로봇이 상호작용하는 인간에게서 바람직한 특성이나 행동을 끌어낼 수 있어야 할 것이다. 그것은 그다지 어려운 문제가 아닐 것이다. 이미 돌봄 로봇이나 동반자 로봇은 인간의 언어나 공간적 접근, 몸짓이나 접촉 등으로 인간 행위자와 소통하고, 심지어 긍정과 부정의 행동까지 할 수 있기 때문이다. 이러한 사실은 로봇에 의한 너지의 가능성을 높여 준다. 하지만 진정한 로봇 너지가 일어나려면, 기계인 로봇과 인간 행위자 간에 신뢰가 구축되어야 할 것이다. 브룩과 아킨이 그 가능성을 조사했다. 이에 따르면 로봇의 행동이 인간 행위자의 신뢰를 강화하는 것으로 나타났다.
-06_“로봇 너지” 중에서
그러나 우리의 도덕적 판단은 순수 논리적이고 이론적으로만 일어나는 것이 아니다. 따라서 AI는 인간 행위자의 판단을 도덕적으로 그럴듯해 보이도록 평가해야 한다. 이 점에서 AI는 규범적 내용을 지향해야 할 것이다. 하지만 이 규범적 내용은 아마도 규범 윤리학의 역사에서 도출된 지식일 것이다. 그런데 규범의 역사적 내용은 시대에 따라 그 가치가 다를 수밖에 없다. 그래서 AI는 어느 한 시대에 편향됨 없이 ‘중립적으로’ 규범 내용을 제시할 수 있어야 한다.
-09_“세부 논의의 딜레마” 중에서