책소개
AI는 진실을 증명할 수 있는가
허위 정보가 알고리즘을 타고 확산되는 시대다. 이미지·영상·음성을 결합한 딥페이크는 민주적 의사 결정을 흔들고 공동체를 분열시킨다. 이 책은 전통적 팩트체크 저널리즘의 한계를 짚고, AI 기반 검증 체계가 어떻게 등장했는지 추적한다. 텍사스대의 ‘클레임버스터(ClaimBuster)’에서 거대 언어 모델을 활용한 지능형 검증 시스템까지, AI는 주장 탐지·근거 수집·판정·요약·멀티모달 검증으로 역할을 확장해 왔다. 그러나 맥락 이해 부족, 데이터 편향, 설명 불가능성, 할루시네이션, 책임 소재의 모호함은 여전히 치명적 제약이다. 이 책은 미국·유럽·아시아 사례를 비교하며 한국의 포털 중심 뉴스 환경과 한글 데이터 한계를 함께 분석한다. 결론은 분명하다. AI는 팩트체크를 대체하는 존재가 아니라 인간 판단을 보조하는 도구다. 최종적 맥락 해석과 사회적 책임은 여전히 인간의 몫이다.
200자평
딥페이크와 허위 정보가 범람하는 시대, AI 팩트체크가 해법으로 떠올랐다. 주장 탐지부터 멀티모달 검증까지 기술의 가능성을 짚고, 맥락 이해 부족과 책임 문제라는 한계를 함께 분석한다. 인간과 AI의 협력 모델을 제시하는 안내서다. AI문고. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
김미정
한국외국어대학교 미디어커뮤니케이션 학사 학위를 받았다. 이후 영국 런던대 골드스미스 칼리지에서 같은 전공으로 석사 학위를 취득했다. 2021년부터 국내외 AI 산업과 기술 현장을 취재해 왔다. 현재 지디넷코리아에서 글로벌 기업의 AI 기술과 클라우드, 데이터베이스 산업을 담당하고 있다. 영국 웨스트민스터대 산하 미디어 연구소(CAMRI)에서 허위 정보 주제로 연구를 이어가고 있다. 그동안 미국 지디넷(ZDNetUS), 정보통신산업진흥원(NIPA), LG CNS 등 국내외 매체와 기관에 AI 관련 기사와 기고문을 게재했다.
차례
AI 팩트체크, 인간 손 잡다
01 허위 정보와 팩트체크 저널리즘
02 AI 팩트체크
03 AI 팩트체크 작동 원리
04 AI 팩트체크와 SNS
05 미국 AI 팩트체크
06 유럽 AI 팩트체크
07 아시아 AI 팩트체크
08 AI 검증 결과와 수용자 신뢰
09 AI 팩트체크 한계
10 AI 팩트체크 미래
책속으로
생성형 AI를 활용한 허위 콘텐츠가 폭발적으로 늘어나면서, 기존 팩트체커가 모든 정보를 감당하기 어려운 상황이 됐다. 텍스트뿐 아니라 이미지와 영상, 음성을 결합한 허위 정보가 동시에 쏟아지면서 검증 대상의 양과 형태 모두가 과거와는 비교할 수 없을 만큼 복잡해졌기 때문이다. 물론 팩트체크 시스템에도 일부 자동화 도구가 도입되긴 했다. 다만 이는 보조적 수준에 머물러 있다. 인간 팩트체커가 자료를 수집하고 판단하는 기존 구조로는 실시간으로 확산하는 허위 정보의 속도와 규모를 따라잡기 어렵다. 사실이 확인되기 전 이미 허위 정보가 광범위하게 퍼지는 일이 반복되고 있는 실정이다.
-01_“허위 정보와 팩트체크 저널리즘” 중에서
팩트체크 해야 할 대상이 정해지면 AI는 본격적으로 근거를 수집한다. 정부 보고서를 비롯한 공공 데이터, 학술 논문, 국제기구 통계, 언론 기사, 전문 연구기관 보고서를 찾는다. AI는 단순히 같은 단어가 들어 있는 문서만 모으지 않는다. 문장 의미까지 이해해 유사한 개념을 함께 검색하는 식이다. (…) 그러나 이런 방식은 최신 정보 반영이 어렵고, 검색된 자료가 제한적이었다.
-03_“AI 팩트체크 작동 원리” 중에서
유럽의 AI 팩트체크 생태계는 미국과 다르다. 미국에선 언론사와 대학, 연구센터가 협력해 자동화 도구를 개발하고 실험해 왔다. 반면 유럽 기관은 데이터를 직접 수집하고 모델까지 훈련시키는 독립형 AI 팩트체크 인프라를 구축했다. 가장 대표적인 사례는 풀팩트다. 풀팩트는 2010년 영국에 설립된 비영리 팩트체크 센터다. 정치뿐 아니라 경제, 보건, 이민, 환경까지 다양한 주제를 검증한다. 유럽 전체를 놓고 보면 AI를 활용한 팩트체크 분야에서 풀팩트가 가장 앞서 있다. 단순히 AI를 팩트체크 지원 도구로 쓰는 데 그치지 않고, 스스로 데이터와 모델을 만들어 자동화 시스템을 구축해 왔다는 이유에서다.
-06_“유럽 AI 팩트체크” 중에서
또 AI 팩트체크 도구가 오류를 냈을 시 책임 소재가 명확하지 않은 점도 한계다. 사실 책임질 주체는 많다. 도구를 만든 개발자와 알고리즘 설계자, 이를 서비스에 배포하고 운영하는 기업, 결과를 활용해 보도나 의사 결정을 내리는 사용자, 이를 감독하는 공공 기관까지 모두 책임 대상이 될 수 있다. 그러나 실제 사고가 일어났을 때 어느 한쪽이 전적으로 책임을 져야 한다고 말하기는 어렵다. 책임을 추적하려면 “왜 이런 판단이 나왔는지” 설명할 수 있어야 한다. 하지만 많은 AI 시스템은 내부 작동 방식을 드러내지 않는다. 모델이 어떤 데이터와 규칙으로 결정을 내렸는지 알 수 없으니, 책임을 따지기가 어렵다.
-09_“AI 팩트체크 한계” 중에서