책소개
가짜 이미지의 시대, 무엇을 믿을 것인가
인류 문명의 발달을 이끌어 온 미디어의 역사를 거슬러 올라가, 오늘날 AI가 만들어 낸 가장 파괴적이고도 매혹적인 변화−이미지 조작−를 정면으로 다룬다. 설형문자와 상형문자에서 시작된 기록의 기술, 금속활자와 신문의 등장이 만든 정보 혁명, 라디오·TV가 연 인간의 감각 확장, 그리고 컴퓨터·인터넷이 구축한 글로벌 미디어 환경까지. 이 책은 AI 기반 이미지 조작 기술이 이러한 미디어 진화의 연속선상에 있음을 밝히며, 딥페이크·그래픽 변조·합성 영상이 왜 지금의 사회에서 폭발적 파괴력을 갖게 되었는지를 설명한다. 특히 중학생의 딥페이크 범죄 사례처럼 일반 사용자도 손쉽게 타인을 훼손할 수 있는 기술 환경이 이미 현실이 되었음을 강조하며, 법적·행정적 규제의 시급성을 경고한다. 그러나 이 책은 비판만으로 끝나지 않는다. 생성형 AI가 이미지 창작에 가져온 혁신인 압도적인 생산성, 새로운 표현 방식의 개방성도 균형 있게 조명한다. 문제는 기술이 아니라, 그것을 다루는 사회적 장치의 부재다. 밈·합성 이미지처럼 가벼운 오락 콘텐츠조차 누군가에게 심각한 피해를 남길 수 있음을 사례로 보여 주며, 독자가 ‘이미지의 시대’에서 무엇을 경계하고 무엇을 준비해야 하는지 묻는다. 변화의 원인, 기술의 작동 원리, 법적 쟁점, 사회적 파장 등을 10개 장에 걸쳐 체계적으로 정리하고, 가짜 이미지가 일상을 침식하는 시대에 ‘판단의 감각’을 되찾기 위한 지침을 제공한다.
200자평
딥페이크·합성 이미지·밈 영상 등 AI 기반 조작 기술의 실태와 위험을 역사·사례·법제 관점에서 분석한 책이다. 피해, 왜곡, 규제, 그리고 창작의 가능성까지 이미지 시대의 쟁점을 균형 있게 다룬다. AI총서. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
강승구
한국방송통신대학교 미디어영상학과 교수다. 연세대학교 신문방송학과를 졸업하고, 미국 미주리주립대학교에서 박사 학위를 받았다. 한국방송통신대학교 사회과학대학 학장, 서울캠퍼스 학장을 역임했으며, 현재 (사)서울국제문회예술협회 부회장을 맡고 있다.
차례
AI와 이미지 조작
01 이미지 조작의 역사
02 이미지 창출과 이미지 조작의 경계선
03 이미지 조작과 딥페이크
04 이미지 생성 AI 미드저니와 문제점
05 이미지 조작 사례 1: 도널드 트럼프와 버락 오바마
06 이미지 조작 사례 2: 디지털 성범죄와 이미지 도용
07 이미지 조작 사례 3: 소라
08 이미지 조작 규제 법안
09 머신 바이어스 문제
10 AI와 이미지 조작의 미래
책속으로
이미지 조작의 역사는 가장 먼저 나폴레옹 시대로 거슬러 올라가야 한다. 전쟁의 신이자 프랑스의 국민적 영웅인 나폴레옹 보나파르트 1세는 황제가 되기 전 자신을 미화하기 위해서 화가들로 하여금 자신과 관련된 일들을 그림으로 그리게 했다. 그중 가장 유명한 그림은 나폴레옹이 알프스 산을 말을 타고 넘어가는 그림이다. 1801년 자크 루이 다비드(Jacques Louis David)가 그린 이 그림은 화가가 자발적으로 그린 그림이 아니라 나폴레옹에 의해 주문 제작된 그림이다. 나폴레옹은 자신을 좀 더 강인한 이미지로 드러내기 위해 일부러 특정한 그림을 주문 제작한 것이다.
-01_“이미지 조작의 역사” 중에서
최근에 일어나는 이미지 조작과 관련된 사건들은 대부분 딥페이크 기술 때문에 일어나는 사건들이다. 원래 딥페이크 기술은 나쁜 목적에서 만들어진 기술이 아니라 영상 업계에서 개발한 기술이다. 영화에서 다양한 인간의 모습을 구현하고 제작비를 절감하는 차원에서 개발된 기술이다.
-03_“이미지 조작과 딥페이크” 중에서
국내의 경우만 하더라도, 교육부가 발표한 자료에 따르면 2024년 1월 1일부터 9월 6일까지 딥페이크 성범죄 피해자는 총 617명으로, 학생 588명, 교원 27명, 직원 등이 2명 피해를 입은 것으로 조사되었다. 국내에서 딥페이크를 활용한 불법 합성물 성범죄가 급증하고 있는데, 지인이나 유명인 얼굴과 성적인 영상물을 합성해 유포하는 이른바 ‘지인 능욕’ 범죄가 대표적이다.
-06_“이미지 조작 사례 2:디지털 성범죄와 이미지 도용” 중에서
머신 바이어스는 편향된 학습 데이터가 특정 집단에 불리하게 구성되어 있을 경우 일어날 수 있다. 2016년 프로퍼블리카(ProPublica) 조사에 따르면 미국의 범죄 예측 알고리즘 콤파스(COMPAS)는 흑인 피고인들을 재범 위험이 더 높은 집단으로 분류한 바 있는데, 이는 실제 재범률과 일치하지 않았다. 인종에 따른 재범률을 산출할 때 머신 바이어스가 작용한 사례라고 분석할 수밖에 없는 것이다. 알고리즘에 의한 결론 도출 과정에 머신 바이어스가 계속 발견될 수 있다는 점은 AI와 공존해야 하는 우리로선 당혹스러운 측면이다. 머신 바이어스에다 AI를 사용하는 사람의 사악함까지 더해진다면 최악의 경우 AI에 의한 신종 범죄에 우리 인류가 신음하게 될 것이다.
-09_“머신 바이어스 문제” 중에서