책소개
인간 아닌 인간 같은 AI에 대한 고찰
생성형 AI의 발전과 그에 따른 인간 사회의 변화, 그리고 AI와 인간의 관계에 대해 성찰한다. 인간이 AI와 상호작용하면서 마주할 수 있는 도덕적, 철학적 문제를 탐구하며 특히 해나 아렌트의 ‘악의 평범성’을 중심으로 AI의 윤리적, 사회적 역할을 분석한다.
AI는 단순히 기계적 작업을 넘어서, 인간의 노동을 대체하고, 업무 효율성을 극대화하는 유능한 도구로 자리 잡고 있다. 그러나 그 과정에서 인간의 본질, 자유, 평등, 책임 등 중요한 가치를 어떻게 지켜갈 것인가에 대한 문제는 여전히 풀리지 않은 질문으로 남아 있다. 이 책은 10개의 핵심 주제를 통해 AI와 악의 평범성의 관계를 다룬다. ‘악의 평범성’에 대한 오해를 바로잡으며, AI의 논리적 능력과 인간 지능의 차이를 논의한다. AI의 목적과 도구로서의 기능을 탐구하고, 인간 노동이 AI에 필수적인 사전 작업으로 제공되는 과정을 살펴본다. 자유, 평등, 책임과 같은 철학적 개념을 AI 시대에 맞게 재조명하며,AI가 스마트한 아이히만처럼 기능적 사고를 넘어서 감정적, 윤리적 사고를 결여한 존재임을 고찰한다. AI가 도구로서의 역할을 넘어선 존재로 발전하는 시대에, 그 사용과 통제에 대한 윤리적 책임을 다루는 중요한 논의를 이끌어낸다.
200자평
AI의 발전과 그에 따른 철학적, 윤리적 문제를 탐구한다. 해나 아렌트의 ‘악의 평범성’ 개념을 바탕으로 AI의 목적, 인간 노동의 역할, 자유, 평등, 책임 등 중요한 가치들이 어떻게 영향을 받는지를 분석한다. AI가 인간의 노동을 대체하고 효율성을 극대화하는 과정에서 그 윤리적 의미와 AI의 도덕적 책임을 진지하게 고찰한다.
지은이
이인미
아렌트 연구자다. 포털 사이트 아이디나 닉네임을 ‘아렌트’ 혹은 ‘러빙아렌트’로 정해 두었다. 아렌트를 향한 담백한 우정의 표현이다. 평생 연구 주제로서 아렌트에 대한 지적 사랑(Philia)을 피력한 것이기도 하다. 이화여자대학교에서 석사 학위를, 성공회대학교에서 박사 학위를 받았다. 석사 논문은 여성과 개인, 박사 논문은 인간의 주체성 문제에 천착했으나, 석사 과정과 박사 과정을 꿰뚫는 중심 주제가 있으니, 곧 아렌트의 정치사상이다. 첫 번째 책은 2020년에 출간한 『해나 아렌트의 행위이론과 시민 정치』(커뮤니케이션북스)다. 2023년 가을엔 『외로운 사람들을 위한 정치 수업』(위즈덤하우스)을 펴냈다. 한국어로 번역된 아렌트 저서 15권을 ‘외로움’과 ‘성난 개인’이라는 핵심어를 중심으로 읽어 나가는 책이다. 한국적 문제의식을 기초로 아렌트의 정치사상을 풀어내 대학 혹은 대학원 세미나로 적합하다는 특징을 지녔다. 공저로는 『박원순의 죽음과 시민의 침묵』(지식공작소), 『환경 살림 80가지』(신앙과지성사)가 있다. 『환경 살림 80가지』는 2022년 세종도서로 선정되었다.
차례
인간인 듯 인간 아닌 인간 같은 AI
01 악의 평범성 오해 주의
02 능력: 청렴결백한 논리주의자
03 목적: AI는 다 목적이 있구나
04 노동: 그림자를 꼭 붙여 주오
05 자유: 자동 말고 자유
06 평등: AI가 민주주의를 만날 때
07 책임: 앗! 컴퓨터의 실수
08 의지: 의지의 기원은 반의지
09 판단: AI가 판사라면
10 스마트한 아이히만과 나
책속으로
아이히만의 결정적 문제는 무사유다. 아이히만은 독일이 점령한 여러 지역의 게토에 흩어져 있는 유대인 숫자를 헤아려 합산했다. 그는 마치 자동화된 기계처럼 숫자를 더하거나 뺐다. 실제 인간 유대인을 떠올릴 필요조차 없었다. 개인적 취향 같은 것도 개입될 여지가 없었다. 아이히만은 주야장천 덧셈과 뺄셈을 했다. 그는 유대인 숫자 계산 업무와 유대인에게 실제로 가해지는 잔혹한 폭력을 연결하여 생각하지 못했다.
그러니 잊지 말자. ‘악의 평범성’이 가리키는 핵심적 사안이 다음의 두 가지임을…. 하나는 깊이 없는 천박한 악, 다른 하나는 완전한 무사유.
-01_“악의 평범성 오해 주의” 중에서
AI에 대한 의인화는 ‘머릿속 의인화’, ‘주관적 의인화’에만 머물지 않는다. 심지어 객관적 인식과 공감을 지향한다고 말해도 과언이 아니다. 최근 정밀 카메라를 장착한 AI가 인간의 감정을 읽고 그에 대해 적절한 공감 반응을 나타낼 수 있게 되었는데, 그중 자폐증 환자를 도울 수 있는 기능을 갖춘 AI 로봇이 출시됐다. 그뿐 아니다. 심리상담 AI 엘리자(Eliza), 심리치료에 특화된 챗봇 카림(Karim) 등은 실제 상담 장면에 투입된 지 꽤 되었다. AI가 살아 있는 사람처럼 활동하고, 또 대우받는 것이다.
-03_“목적: AI는 다 목적이 있구나” 중에서
본격적인 AI 시대를 내다보며, 기술철학자 코켈버그는 인공지능에 의해 민주주의의 이상과 정반대에 있는 엘리트 기술관료주의가 구축될 수 있다는 점을 염려한다. AI 기술이 점점 쉬워지면서도, 그 기술의 핵심 사항은 끝내 전문가 영역으로 남을 수밖에 없기 때문이다. 일반인들은 AI의 입력에서 출력까지의 기술적 절차와 단계를 구체적으로 몰라도 AI를 사용할 수 있다. 따라서 잘 모르는 채 그냥 주어진 대로 사용하게 될 수 있다. 잘 모르는 사람을 속이는 건 쉬운 일이다.
-06_“평등: AI가 민주주의를 만날 때” 중에서
칸트와 아렌트에 따르면, 인간의 판단은 다만 특정 법률 용어를 특정 과제에 적용하는 정신 활동이 아니다. 판단은 형사 또는 민사 법전의 문구와 판례를 적용해 처벌 강도와 형량을 정하는 것만도 아니다. 판단은 권위주의적인 법관들이 습관처럼 되뇌는 ‘법리적 검토’ 수준을 넘어 차원 높은 인간의 정신 활동을 지향한다. 그러므로 인간의 판단 내용에서 시시비비를 가려야 하는 문제가 생길 때마다 AI가 공정한 판단을 내려 줄까 기대하는 것은 자칫 위험할 수 있다. AI는 입력된 데이터 용량과 수위를 따라 논리적 결괏값을 제출할 뿐이다. 그것도 매우 ‘지능적으로.’
-09_“판단: AI가 판사라면” 중에서