책소개
AI 시대의 윤리 기준
인공지능 기술이 사회에 미치는 영향을 윤리적 관점에서 탐구한다. AI는 이미 우리 생활의 많은 부분에 도입되어 있으며, 미래 사회에서 그 영향력은 더욱 커질 것이다. AI가 어떻게 인간의 존엄성과 권리를 보호하고, 공공선을 증진하며, 사회적 불평등을 해소할 수 있는지 고민해 본다.
인공지능은 기계의 인간화와 인간의 기계화 사이에서 새로운 인간성을 모색하려는 시도와 관련이 깊다. 책은 AI 윤리를 과학기술의 발전에 따른 새로운 속성을 지닌 인공적 존재로서, 그 도덕적 책임과 역할을 논의한다. 또한, 인공지능의 윤리적 특성으로 예견적 윤리, 탈인간중심주의적 윤리를 강조하고, 인간의 존엄성 및 인권 보장, 사회적 공공선 증진, 문제 해결, 그리고 긍정적 목적을 위한 기술적 발전을 목표로 한다. 생성형 인공지능의 등장과 그로 인한 인간 사회의 갈등, 그리고 윤리적 AI의 필요성을 제시하며, 인간과 AI의 공존을 위한 조건을 논의한다. AI와 인간 사회의 지속 가능한 발전을 위한 가이드라인을 제시한다.
200자평
인공지능의 윤리적 문제를 탐구한다. AI가 인간의 존엄성과 권리를 보호하고 사회적 불평등을 해소하며 공공선을 증진하는 방법을 제시한다. 생성형 인공지능의 등장에 따른 갈등을 다루고 윤리적 AI의 조건을 논의하며 인간과 AI의 공존을 위한 방향성을 제시한다.
지은이
변순용
서울대학교 사범대학 및 대학원에서 윤리교육을 전공하고 독일 카를스루에(Karlsruhe) 대학에서 철학 박사 학위를 취득하였다. 2005년부터 서울교육대학교 윤리교육과 교수로 재직하고 있으며, 주요 관심 분야는 실천 및 응용 윤리학, 인공지능 윤리 및 로봇 윤리 등이다. 현재 한국인공지능윤리학회 회장, 서울교육대학교 어린이철학교육센터 센터장, 한국인공지능윤리협회 AI윤리연구센터 센터장으로 활동 중이다. 대표 저서로는 『책임의 윤리학』, 『삶의 실천윤리적 물음들』, 『삶과 철학 이야기』, 『인공지능윤리하다』, 『윤리적 AI 로봇 프로젝트』, 『로봇윤리란 무엇인가?』, 『음식윤리』, 『융합기술시대의 윤리』 등이 있고, 대표 역서로는 『레비나스』, 『생명윤리학 1,2』, 『로봇윤리』, 『철학·도덕교육의 교수법』 등이 있다.
차례
인공지능 윤리의 의미
01 AI 시대의 변화
02 새로운 지식 생산 주체의 등장
03 물을 수 있는 능력과 판단할 수 있는 능력
04 생성형 인공지능이 가져온 방향성 갈등
05 규제 가능한 AI: 기술윤리적 접근
06 규제 가능한 AI: 제도적 접근
07 윤리적 AI: 규범적 접근
08 윤리적 AI: 조직적 접근
09 지속 가능한 AI
10 생성형 인공지능의 새로운 방향성
책속으로
인터넷과 웹, 브라우저와 앱을 통한 디지털화(Digitali- zation)은 머신 러닝과 딥 러닝, 챗봇과 빅 데이터를 통한 인공지능 변형(Digital or AI Transformation)과는 질적으로 다를 수밖에 없다. 디지털화는 디지털 기술 인프라를 만드는 사회적, 제도적 맥락에서 디지털 기술을 적용하는 사회 기술적 과정이다.
-01_“AI 시대의 변화” 중에서
생성형 인공지능에 의해 생산된 지식의 진위 판정에 대한 기준에 대한 문제가 제기될 수 있다. 즉 생성형 인공지능은 기존의 데이터를 모두 참이라고 전제할 수밖에 없을 것이다. 디지털화된 데이터만 학습과 검색이 가능한데, 이것도 접근이 가능한 오픈 데이터에 한정되기 때문에 학습하거나 검색할 수 있는 데이터의 소스가 제한적일 수밖에 없다. 그리고 지식의 성격상 하나의 지식에 대한 다양한 판단이 존재하는 데이터의 경우가 일반적이다. 이럴 경우에 데이터의 참의 근거는 그러한 데이터의 수가 많음으로 판정할 수밖에 없다. 물론 여기서 말하는 것은 데이터의 내용에 대한 진리 판단을 말하는 것이며, 디지털화된 수많은 데이터의 참, 거짓을 구분할 수 있는 시스템을 만들어 내기가 쉽지 않을 것이다.
-03_“물을 수 있는 능력과 판단할 수 있는 능력” 중에서
그렇지만 AIA의 필요성이 다양한 분야로부터 국제적으로 인정받고 있는 만큼 국제적 차원에서 AIA의 준거를 설정하기 위하여 윤리적인 영역을 넘어 복합적인 영역에서의 담론적 합의가 요구될 것으로 보인다. 둘째, 자율성 평가의 경우 여러 가지 문제 상황을 자율적인 결정을 통하여 해결하기 위해 제작되는 인공지능 시스템의 기술적 특성에 기인하여 인공지능의 도덕적이고 윤리적인 자율 판단 능력을 유형화하여 평가하는 방식이다.
-06_“규제 가능한 AI: 제도적 접근” 중에서
지세븐(G7)은 2023년 5월 ‘히로시마 AI 프로세스’를 수립하고, 당해 10월에는 ‘첨단 인공지능 개발 조직에 대한 국제 지침 및 행동 규범’을 최종 합의했다. 해당 합의안에는 인공지능 개발 기업에 관한 위험성 평가와 관리를 요구하는 ‘국제 지침(guiding principles)’과 이용자의 인공지능 리터러시 소양 함양을 촉구하는 ‘행동 규범(code of conduct)’이 제시되고 있다. 히로시마 AI 프로세스는 주요국들이 인공지능의 발전 동향에 주시하여 예측되는 잠재적 위험을 선제적으로 조치하는 과정에서 국제적인 상호 협력 방식을 사용했다는 점에 의미가 있다.
-09_“지속 가능한 AI” 중에서