책소개
AI 시대, 인간의 자기 결정을 다시 묻다
인공지능은 인간의 언어와 사고를 학습하며 자율화의 단계로 진입하고 있다. 이는 편익을 넘어 인간의 자기 결정에 대한 본질적 위협을 낳는다. 기계가 인간을 수치화하고 의사 결정을 대신할 때, 인간 존엄과 주체성은 어떻게 지켜질 수 있을까? 이 책은 인공지능 시대 자기결정권의 헌법적 의미를 체계화하고, 개인정보 보호를 넘어서는 근본적 권리로서 자기 결정을 조명한다. 국내 최초로 제정된 인공지능 기본법의 한계를 짚으며, 법·윤리·사회 전반에서 새로운 통제와 제도적 대응의 필요성을 강조한다.
나아가 자기 인식, 자유의 개념, 사회적 정체성, AI 의사결정 시스템 유형, 과학 중립성의 신화, 헌법상 자기결정권의 진화 등을 구체적으로 살피며, AI가 인간을 객체화하지 않도록 하는 길을 모색한다. 자기 결정은 완전한 가치가 아니라, 기술과 공동체 속에서 지켜내야 할 인간다운 삶의 토대다. AI 혁명 속에서도 인간이 자기 삶의 주인으로 남기 위한 철학적·법학적 성찰을 제시한다.
200자평
AI는 인간의 결정을 대신할 만큼 진화하고 있다. 헌법적 권리로서 자기 결정의 의미를 재정립하며, 인공지능 시대 인간이 주체로 존중받기 위한 법적·철학적 논의를 전개한다. 존엄을 지키는 자기 결정을 위한 성찰을 담았다. 인공지능총서. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
이희옥
네이버 정책전략실에서 근무한다. 알리안츠생명보험과 네이버 법무실을 거쳤다. 한양대학교에서 학사·석사·박사를 마쳤고, 전공은 헌법학이다. 인간과 기술에 대한 문제를 연구하며 민간 자율정책 기구와 공공기관의 자문, 학회, 저널 등을 통해 활발한 활동을 이어 가고 있다. 한양대학교에서 겸임교수로 있다. 주요 연구로는 “개인정보자기결정권에 관한 비판적 검토”(2016), “네이티브 광고와 소비자 보호에 관한 법적 연구”(2018), “빅데이터 환경에서 보험업상 개인정보의 보호와 활용”(2019), “인공지능 의사결정에서의 이익조정과 이원적 규제모델에 관한 연구”(2020), “저널리즘에서 인공지능 활용과 기본권 보호”(2021), “인공지능 편향 통제를 위한 챗봇 윤리 가이드라인”(2023), “가짜뉴스에 대한 합헌적 규제를 위한 고찰”(2023), “미국의 저널리즘 보호법에서 살펴본 국내 저널리즘 지원 정책의 방향성”(2024), “인공지능 주권 논의와 데이터 법정책에 관한 비판적 고찰”(2024), “인공지능의 위험에 관한 기본권 논의와 입법 대응”(2025) 등 다수의 학술지 논문이 있다. 2022년 12월 “메타버스 내 적대적 언행(Hate Speech) 규제방안에 관한 연구”(2022)로 한국언론법학회에서 제6회 <유당신진언론법상>을 수상했다.
차례
왜 지금 자기 결정인가
01 자기 결정적 삶
02 자율성, 두 가지 자유
03 자기 인식과 인공지능 조정
04 타인의 시선과 사회적 정체성
05 인공지능 결정 시스템의 유형
06 과학 중립성의 착시와 인공지능 윤리
07 헌법상 자기결정권의 진화
08 개인정보자기결정권의 한계
09 인공지능 시대 자기결정권의 독자적 인정
10 자기 결정의 신화와 선의지
책속으로
기술의 변천사에 인간의 편익을 돕는 기계는 산업화를 거쳐 자주 등장했다. 다만 인공지능 환경에서 기계가 인간의 의사 결정을 위임받아 독자적으로 해낸다는 것은, 지난 정보화시대 컴퓨터가 디지털 처리해 인간의 정보 활동을 돕는 것과는 질적 차원을 달리하는 기술적 혁신이다. 기술적 맥락에서 정보화 시대 컴퓨팅 기술은 인터넷망에 연결됨으로써 정보 처리를 하는 보조적 도구였다면, 인공지능은 그야말로 인간의 지적 능력을 모사해 수행하는 에이전트다.
이러한 기술의 변화 속에서 인간의 자기 결정은 인간 존엄의 측면에서 더욱 중요해지고 있다. 바로 인공지능이 궁극적으로 완전한 자율성을 추구하는 과정에서 인간의 개입권이 얼마만큼 작동할지가 관건일 것이다. 인간의 자율성은 인간이 이성을 가진 존재로서 결정에 이르는 과정으로 설명될 수 있다.
-01_“자기 결정적 삶” 중에서
인간은 누구에게나 자신의 생을 타인에게 조종당하지 않고, 자기의 결정으로 살아가고자 하는 본질적 욕구가 있다. 타인의 노리개나 꼭두각시가 되려는 사람은 아무도 없다. 그에 비해 인공지능, 기계의 조정에 대해서는 한없이 무감각한 것은 아닐까? 우리는 타인이라는 다른 존재의 영향력 행사에는 즉각적으로 반응하면서도 인식하지 못한 기계의 존재에 대해서는 별다른 거부감을 표시하고 있지 않다.
오늘날 인공지능 알고리즘의 조정은 계획적이고 계산적이다. 우리가 인식하지 못하는 사이에 추천되는 광고, 정치적 선전물, 특정 집단을 향한 은밀한 비난이 감정을 교묘하게 이용한다. 그뿐만 아니라 자극적이고 짤막한 콘텐츠를 수시로 주입함으로써 본래 의도한 정보를 차단하고, 스스로 생각할 시도조차 막는 세뇌 작업, 이런 것들이야말로 은밀한 ‘생각 조정자’이다.
-03_“자기 인식과 인공지능 조정” 중에서
대표적인 인공지능 윤리는 2017년 1월에 인공지능 분야의 전문가로 구성된 민간 단체인 ‘삶의 미래 연구소’가 발표한 ‘아실로마 인공지능 원칙(Asilomar AI Principles)’이다. 이 원칙은 인공지능의 위험을 사전에 통제할 수 있는 연구 단계에서의 윤리 문제가 공론화되면서 각계 전문가들의 치열한 논의 끝에 발표된 것이다. 이 원칙은 총 23항목으로 구성됐으며, 연구에서의 이슈(1∼5), 윤리 및 가치(6∼18), 그리고 장기적 이슈(19∼23)에 대한 주제로 정하였다.
무엇보다 아실로마 인공지능 원칙은, 인공지능 연구의 목표를 ‘인간에게 유용한 지능을 개발하는 것’에 두었다. 또한 인공지능 윤리 담론의 핵심 가치라고 할 수 있는 투명성, 개인정보 보호, 자유와 프라이버시의 윤리와 가치를 언급하고 있다. 또한 미래의 초지능(super intelligence)은 윤리적 이상을 널리 공유하는 방식으로 모든 인류의 이익을 위해 개발되어야 한다는 점이 강조되었다. 이후 기업에서도 인공지능 윤리 원칙이 발표되기 시작했다.
-06_“과학 중립성의 착시와 인공지능 윤리” 중에서
제럴드 드워킨의 자율성의 개념은 자기 지배와 합리적 인간관에 대한 이상향을 갖는다. 이사야 벌린 역시 인간의 합리적 자아를 이성, 높은 차원의 본성, 장기적으로보다 많은 만족을 가져다줄 것이라는 ‘합리적 계산’에 의해 찾아내는 자아에서 찾았다. 그래서 완전한 자기 결정의 자아는 ‘진정한’, ‘이상적인’, ‘자율적인’, 내가 ‘최선의 상태’에 있을 때다.
한편, 제럴드 드워킨의 ‘자기 결정’에 관한 두 가지 관점은 ‘자기결정권의 보호 범위와 제한’의 문제와 관련하여 다음의 두 가지 질문과 맞닥뜨린다.
첫째, 자기결정권에 전제된 자율성은 실질적 독립성 혹은 절차적 독립성을 전제로 하는가? 그렇다면 그것은 자기결정권의 보호 범위가 될 것인가?
둘째, 자기결정권의 행사를 자율성에 기반하여 개인에게만 맡기는 것이 정당한가?
-09_“인공지능 시대 자기결정권의 독자적 인정” 중에서