책소개
AI와 젠더의 교차점을 살피다
AI 기술이 발달함에 따라 젠더 편향이 강화되거나 역사적으로 배제된 여성의 목소리가 다시금 침묵당할 위험이 커지고 있다. AI 기술 발전과 젠더 문제를 다각적으로 분석해 기술 속 젠더 불평등과 편향을 파헤친다. 이 책은 AI 기술의 알고리즘이 어떻게 사회적 편견을 내재화하는지, 특히 여성의 데이터를 다루는 방식에서 나타나는 문제점들, 그리고 기술 발전 과정에서 소외된 여성의 노동에 대해 심도 있게 논의한다. 더불어 AI 기술을 둘러싼 성범죄의 정교화 문제도 다루며, 이로 인해 변화하는 사회적 경계와 기술 윤리의 문제를 비판적으로 분석한다. 이 책은 AI와 젠더의 교차점을 10개 주제를 통해 심층적으로 탐구한다. 각 주제는 독립적이면서도 서로 긴밀하게 연결되어 AI 시대에 젠더 문제가 어떤 방식으로 드러나는지 조명한다. AI 기술이 가져올 미래와 그 속에서 우리가 만들어갈 관계, 그리고 경험을 고찰할 기회를 제공한다.
200자평
AI 기술에 내재한 젠더 편향과 불평등을 다룬다. 여성 데이터 부족, 기술 속 성범죄 문제 등 AI와 젠더가 교차하는 다양한 주제를 10개로 탐구한다.
지은이
이정현
중앙대학교 인문콘텐츠연구소의 HK연구교수다. 미국 노스캐롤라이나주립대학교에서 커뮤니케이션학 박사학위를 받았다. 미디어문화연구를 전공했으며 AI와 기술문화, 기술과 지속 가능한 실천, 미디어 고고학, 디지털 미디어와 기억 등의 주제에 관심을 갖고 연구하고 있다. 주요 논문은 “인공지능과 ‘리얼리티’의 경계”(2023), “가상인간을 생산하는 몸, 노동, 미디어”(2023), “젠더패턴”(2023), “기술쓰레기의 계보”(2023), “Digital sustainability and the human”(2021), “Algorithmic uses of cybernetic memory”(2020) 등이 있으며, 저서로 『인공지능 기술비평학』(공저, 2023), 『AI와 더불어 살기』(공저, 2020) 등이 있다.
차례
새로운 AI 기술 속 젠더라는 오래된 이야기
01 패턴 식별과 젠더 식별
02 AI 콘텐츠 필터링과 젠더
03 여성의 데이터가 없었던 AI
04 여성이 된 AI
05 AI와 여성의 자리
06 AI와 돌봄 노동
07 AI가 배운 젠더
08 유해물 생성 AI
09 AI 정책, 윤리, 법제 속 젠더
10 AI 젠더 균형이라는 상상
책속으로
일부 기술 기업들은 젠더 범주를 더 만들어 분류의 윤리성을 확보하려 한다. 하지만 식별과 분류라는 행위 자체가 AI 기술에 이르러 정당성을 확보한다는 지점이 가장 위험하다. 젠더나 인종 등 소수자 집단들은 개인의 본질을 규정하고 순서를 매기며 배제해 온 식별, 분류, 차별의 역사를 문제 삼아 왔다. AI는 이제 이 분류 논리를 마치 자연적이고 고정적인 것처럼 이용한다.
-01_“패턴 식별과 젠더 식별” 중에서
일례로 2011년 스웨덴 칼스코시 공무원들은 모든 정책을 젠더 감수성의 관점에서 재평가했다. 제설 작업은 자동차 사고를 예방하기 위해 도로를 우선적으로 치우는 과정에서 남자들에 비해 걷기나 대중교통을 이용하는 경향이 높은 여자들의 이동 경로가 후순위로 밀려나 왔다. 이를 인지한 시의원들은 눈 속에서 유모차나 휠체어를 미는 것보다 운전하는 편이 더 쉽다고 판단해 보행자와 대중교통 이용자 우선으로 제설 순서를 바꾸었고 결과적으로 도로 관리 비용의 2배였던 겨울 보행자 사고 비용도 줄였다.
-03_“여성의 데이터가 없었던 AI” 중에서
하지만 돌봄 노동은 디지털 변환의 청사진에서 지속적으로 배제되고 있다. 유엔(UN)의 지속 가능한 개발 목표(SDG) 중 네 번째 목표인 젠더 평등은 전 세계 사회가 “공공 서비스, 인프라 및 사회 보호 정책을 통해 무급 돌봄 및 가사 노동을 인식하고 가치를 부여하며, 가정과 가족 내에서 책임을 공동으로 부담할 것을 촉진”함을 권장하고 있다. 하지만 디지털로 변환된 경제를 유지하고 확산하기 위한 정부의 정책들은 돌봄 경제에 대한 전 세계적 관심에 역행하며 여성의 노동을 디지털 전환과 AI 청사진 바깥으로 밀어내고 있다.
-06_“AI와 돌봄 노동” 중에서
AI 윤리, 정책, 법제들은 반복적으로 포용을 논의하고 젠더를 언급하면서 개발의 정당성을 획득한다. 추천알고리즘에서 생성형 알고리즘으로 진화를 거듭하는 동안 ‘인간중심’ AI이나 ‘포용적’ AI이 실로 작동하고 있는지, 그 안에서 젠더의 위치는 보다 포용적이고 인간중심적으로 바뀌고 있는지, 혹 텅 빈 기표 뒤에 숨어 여전히 역사적으로 구성된 젠더 편향을 답습하고 있지는 않은지 좀 더 세밀하게 지켜보고 추적해야 한다.
-09_“AI 정책, 윤리, 법제 속 젠더” 중에서