책소개
AI 시대, 인간의 권리는 어디에 있는가
인공지능이 일상과 사회 깊숙이 들어온 지금, 기술의 진보는 반드시 인권이라는 기준과 함께 논의되어야 한다. 채용, 교육, 감시, 알고리즘 판단 등 다양한 영역에서 AI가 인간의 존엄성과 권리를 어떻게 침해할 수 있는지 구체적으로 짚는다. 특히 여성, 장애인, 노동자 등 사회적 약자에게 미치는 영향과, 편향된 데이터가 불러오는 차별을 비판적으로 분석한다.
유엔, EU, 미국, 영국, 한국의 최신 입법 흐름을 비교하며, ‘권리를 위한 기술 통제’의 필요성과 실행 방안을 제시한다. AI의 윤리를 논하는 것을 넘어, 실제 피해와 제도적 대응을 함께 제시하는 실천적 내용을 담았다. 기술을 위한 사회가 아닌, 사람을 위한 기술로 나아가기 위한 첫걸음을 디뎌 보자.
200자평
인공지능 기술이 초래할 수 있는 인권 침해의 가능성과 그 해결책을 다각도로 모색한다. 기술의 진보가 결코 인간의 존엄을 훼손해서는 안 된다는 사실을 다시 일깨운다. 인공지능총서. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
송시섭
동아대학교 법학전문대학원 교수다. 고려대학교에서 법학 학사를 취득하고, 미국 시카고 노스웨스턴 로스쿨에서 석사 학위를 취득했다. 1996년 사법시험 합격 후 서울과 부산에서 변호사로 활동하다 국내 로스쿨 제도 도입 시점인 2007년 가을 로스쿨 교수가 되었다. 대학원 때 형사법을 전공한 것이 인연이 되어 로스쿨에서 형사법, 특히 형사소송법을 강의하고 있고, 형사 실무와 법조 윤리 과목으로 최우수강의상을 수상했다. 대통령 직속 지방균형발전위원회 위원, 법제처 법령해석심의위원회 위원 등을 역임했고, 대법원, 법무부, 검찰청의 다양한 위원회 위원과 법조 윤리 시험 및 변호사 시험 출제위원을 지냈다. 2008년 장애인차별금지법 제정에 초기부터 관여하면서 장애인 인권에 눈을 뜨게 되었고, 다양한 인권 영역으로 관심을 넓혀 열린네트워크 이사, 부산광역시 인권보장및증진위원회 위원과 부산시 인권센터 자문위원을 거쳐 부산시사회복지협의회 이사와 사회복지법인 ‘공감’의 감사이자 부산의 인권 활동가들을 후원하는 플랫폼 ‘파랑’의 이사로 활동하고 있다. 기독교 문화 창달을 위해 21세기포럼 이사와 감사를 맡고 있다. 형사법 논문 “형사법상 장애인의 지위: 장애인차별금지법의 관점에서”, “뇌과학에 기초한 형벌이론의 가능성” 등이 있고, 법조 윤리 논문 “인터넷상의 변호사윤리: 변호사소개서비스를 중심으로”, 기독교법 사상 논문 “개신교자연법사상의 가능성” 등 30여 편의 논문을 국내 학술지에 게재했다.
차례
AI와 인권의 만남
01 AI 시대의 인권
02 AI와 기본권: 인간의 존엄, 평등권
03 AI와 시민 인권: 자기 정보 결정권, 저작권
04 AI와 여성 인권
05 AI와 노동자 인권
06 AI와 장애인 인권
07 AI 윤리 대 AI 법률
08 보장 규범을 향한 국제적 기획
09 보장 규범을 위한 국내의 노력
10 인권 시대의 AI
책속으로
단지 AI가 인간의 일자리를 뺏고, 전문직을 사라지게 하는 것과는 전혀 다른 기술의 시대가 다가오고 있음을 느낀다. 아직도 많은 과학기술자들은 ‘마음’을 가진 AI가 탄생하기까지는 갈 길이 멀다고 한다. 하지만 AI 기술이 가져다 줄 장밋빛 미래, 즉 미래세대를 위한 새로운 산업혁명의 시대가 바로 코앞에 와 있다는 기쁜 소식에도 불구하고 왠지 불길한 느낌을 갖게 되는 것은 일반 시민, 특히나 사회적 약자와 소수자들만의 생각일까?
-01_“AI 시대의 인권” 중에서
이미 2017년 영국의 한 보건 신탁은 환자 본인의 적절한 동의 없이 160만 명의 환자 데이터를 구글 딥마인드(Google DeepMind)와 공유하였고, 2013년부터 2018년까지 케임브리지 애널리티카(Cambridge Analytica)는 정치 광고에 사용하기 위해 사전 지식이나 동의 없이 최대 8700만 명의 페이스북 사용자의 개인 데이터를 수집했다. AI 얼굴 인식 데이터베이스를 생성하기 위해 공개적으로 사용 가능한 이미지를 사용하는 관행은 이미 공지의 사실이다. 인터넷에서 수집한 100억 개의 이미지 데이터베이스를 법 집행 목적으로 사용하는 기술이 호주, 캐나다, 프랑스 및 영국을 포함한 여러 국가에서 「개인정보 보호법」을 위반한 것으로 밝혀졌다.
-03_“AI와 시민 인권: 자기 정보 결정권, 저작권” 중에서
미국 펜실베이니아주립대 정보과학기술과(IST) 연구진들은 2023년 12월 SNS 서비스가 장애인에 대한 AI 편향성에 악영향을 줄 수 있다고 밝혔다. 연구진은 고의적인 편향성뿐만 아니라 장애인에 대한 무의식적인 부정적 고정관념을 학습할 수 있다는 점을 증명했다. 나아가 연구팀은 ‘온라인 커뮤니티’가 자연어처리(NLP) AI 모델 장애 편향에 어떤 방식으로 악영향을 미칠 수 있는지에 대한 연구도 진행하였다. 그 결과 온라인 커뮤니티의 게시물, 댓글을 학습한 AI는 장애에 대해 훨씬 더 부정적 편향성을 드러냈다. 벤킷 IST 연구원은 “우리가 연구한 모든 AI 모델은 문맥상 의미를 고려하지 않고 ‘맹인’과 같은 장애 관련 용어가 들어가면 문장을 부정적이고 유해한 것으로 분류했다”며, “이는 장애와 관련된 용어에 대한 명시적인 편견을 보여준다”라고 우려했다.
-06_“AI와 장애인 인권” 중에서
유엔 인권최고대표는 2021년 “디지털 시대 프라이버시 권 보고서”에서 “AI 시스템의 설계, 개발, 배치, 판매, 구입, 운영의 수명 주기 전반에 걸쳐 체계적으로 인권 실사(Due Diligence)를 수행”할 것을 권고하면서, 인권 실사의 핵심 요소로 ‘인권 영향 평가’를 강조하였다. 국가인권위원회도 2024년 5월 과학기술정보통신부장관에게 AI의 개발과 활용으로 인한 인권 침해 및 차별이 발생하지 않도록 관련 정책·사업계획의 수립·이행 시에 ‘AI 인권 영향 평가 도구’를 활용하고, 인권 영향 평가가 법제화되기 전까지 공공기관이 직접 개발하거나 활용하는 모든 AI와 민간 부문의 고위험 AI에 대한 자율적 인권 영향 평가가 수행될 수 있도록 위 평가 도구를 보급할 필요가 있다는 의견을 표명한 바 있다.
-09_“보장 규범을 위한 국내의 노력” 중에서