책소개
알고리즘이 재편한 분노의 정치, AI 위험사회에 민주주의를 다시 묻다
요즘 광장은 분노로 가득하다. 서로를 거의 알지 못하는 사람들이, 서로의 존재만으로 격렬한 혐오를 드러내는 풍경이 일상이 되었다. 그 낯선 분노의 정치학을 추적하며, 그 배후에서 조용히 작동하는 기술−AI 알고리즘−의 얼굴을 드러낸다. SNS와 추천 시스템은 ‘너를 잘 안다’는 명분 아래 사용자의 확증 편향을 강화하고, 보고 싶은 것만 보게 만들며, 서로 다른 세계를 사는 시민들을 만들어 낸다. 이는 단순한 기술 문제가 아니라, 사회적 인지의 재편이며 민주주의 기반을 뒤흔드는 구조적 변화다. 저자는 울리히 벡의 위험사회론을 토대로 AI를 새로운 유형의 재난으로 해석한다. 물리적 피해 대신 인지적 극단화, 사회적 단절, 정치적 과잉을 유발한다는 점에서 그렇다. 기술 비판을 넘어, 우리가 요구해야 할 알고리즘 생태계는 무엇인지, 민주주의는 어떻게 시민의 인지 환경을 보호해야 하는지, 정치적 판단의 주권을 어떻게 회복할 수 있는지를 묻는다. 브레이크와 핸들의 은유처럼, 기술을 거부하지 않되 인간이 조향권을 되찾는 규범적 방향을 제시한다. 서로 다른 세계에 갇힌 시민들이 다시 공통의 세계를 발견하도록 돕는, AI 시대의 정치 안내서다.
200자평
SNS 알고리즘이 확증 편향과 분노를 키우며 민주주의의 기반을 어떻게 약화하는지 분석한다. 위험사회론을 토대로 기술·정치·인지 환경을 재해석하며, 우리가 다시 판단의 주권을 회복하기 위한 새로운 정치적 상상력을 제안한다. AI총서. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
최윤재
한림대학교와 고려대학교에서 사회학을 전공하고 고려대학교에서 “코로나19 팬데믹에 대한 재난담론 연구”로 박사학위를 받았다. ‘재난은 어떻게 이야기되는가’, ‘기술은 어떻게 사회를 바꾸는가’라는 질문을 중심에 두고 정보 사회와 위험사회를 주요 연구 주제로 삼아 학문적 탐구와 강의를 이어 오고 있다. 관련 주제를 국내 주요 학회에 발표하며 연구의 외연을 확장해 왔으며, 현재 고려대학교와 한림대학교에서 ‘현대사회의 이해’, ‘한국사회의 구조와 변동’, ‘비교사회학’ 등을 강의하고 있다.
차례
확증편향 시대, 알고리즘은 누구를 위한 것인가
01 인간을 위해 설계된 AI, 인간을 왜곡하다
02 좋아요와 클릭 사이, 민주주의는 사라진다
03 AI는 어떻게 사회를 극단화하는가?
04 팩트는 사라지고, 믿음만 남는다
05 위험사회, 기술이 만든 불확실성
06 알고리즘은 새로운 재난이 될 수 있는가?
07 투명한 듯 불투명한 알고리즘의 권력
08 정치가 아니던 것이 정치가 되는 순간
09 재난 담론 30년, 정치화되는 한국 사회의 위험
10 민주주의를 위한 알고리즘은 가능한가?
책속으로
누가 AI를 가르칠 것인가. 어떤 인간이, 어떤 가치관을 가지고, 어떤 목적을 위해 AI를 설계할 것인가.
불완전한 교사가 불완전한 가르침을 제공할 때, 그 제자로서 AI는 결코 그 한계를 벗어날 수 없다. 오히려 그 한계를 그대로 복제하고, 더 정교하게, 더 빠르게, 더 보편적인 체계로 확장해 버릴 수 있다. 결국 우리는 AI를 통해 인간을 가르치는 시대에 진입했지만, 실상은 불완전한 인간이 만든 AI가 다시 인간을 되가르치고 있는 상황에 처한 것이다. 이것이 바로 AI 시대가 안고 있는 역설이다. 기술은 더 정확해지고, 더 효율적이며, 더 광범위한 학습이 가능해졌지만, 그 토대 위에는 여전히 인간의 불완전성과 편향이 깔려 있다. AI가 아무리 많은 데이터를 학습하더라도, 그것이 윤리적 성찰이나 철학적 사유를 담보할 수는 없다.
-01_“인간을 위해 설계된 AI, 인간을 왜곡하다” 중에서
앞서 살펴보았듯, 정보를 전달하는 언론은 사회적으로 큰 책임을 수반하는 행위자다. 그러나 이 책임이 알고리즘 기반의 AI로 이전되면서, 구조적 문제가 발생한다. AI는 책임을 지지 않으며, 구독자의 클릭과 체류 시간을 늘리기 위해 보다 자극적이고 감정적인 프레이밍을 선택할 가능성이 높아진다. 즉, 알고리즘은 사용자의 흥미를 유발하는 방향으로 작동하며, 그 과정에서 정보의 균형성과 공익성은 희생될 수 있다.
-03_“AI는 어떻게 사회를 극단화하는가?” 중에서
이제 문제는, 이러한 위험 해석과 담론의 전개가 AI 알고리즘에 의해 조율되기 시작했다는 점이다. 재난이 발생하면 사람들은 뉴스를 보고 검색을 하며 정보를 찾는다. 그런데 어떤 뉴스가 먼저 보이는가? 어떤 해시태그가 실시간 트렌드로 떠오르는가? 누가 먼저 사람들의 타임라인에 등장하는가? 이 모든 것은 이제 알고리즘이 결정한다. 알고리즘은 클릭과 반응을 우선한다. 그렇기 때문에 더 자극적이고 감정적인 정보일수록 먼저 확산한다. 공포와 분노, 혐오와 음모는 빠르게 퍼지고, 차분한 설명과 복잡한 분석은 뒤로 밀린다. 그렇게 알고리즘은 재난에 대한 해석을 편향시키고, 특정한 담론을 ‘주류’처럼 만들며, 위험의 구조 자체를 재편성한다.
-06_“알고리즘은 새로운 재난이 될 수 있는가?” 중에서
최근 들어 재난 담론의 정치화는 더욱 복잡한 국면으로 접어들고 있다. 그리고 그 중심에는 AI 알고리즘이라는 새로운 기술적 행위자가 있다. AI는 개개인의 취향과 정치적 성향에 따라 서로 다른 정보와 해석을 제공한다. (…) AI 알고리즘은 결코 중립적이지 않다. 알고리즘은 객관적이고 중립적으로 보이는 정보를 제공하지만, 실제로는 사용자들이 더 오래 체류하고 자주 클릭하는 자극적인 콘텐츠를 우선 배치한다. 결국 이로 인해 재난을 둘러싼 사회적 인식은 더욱 양극화하고, 소통은 불가능한 서로 다른 현실이 만들어진다.
-09_“재난 담론 30년, 정치화되는 한국 사회의 위험” 중에서