책소개
AI의 도입과 언론계 변화: 기자의 미래는?
AI 기술의 발전은 방송 및 저널리즘 산업에 깊은 영향을 미치고 있다. 한 방송 제작자는 최근 인공지능(AI) 시스템이 방송 제작 업무의 100%를 대체하게 되면서, 자신을 포함한 20명 이상의 직원들이 해고된 상황을 전하며 AI의 확산이 일자리의 대체로 이어질 것이라고 우려했다. 이 AI 시스템은 오디오, 그래픽, 기사 작성 등 다양한 작업을 자동화하며, 기존의 많은 일자리를 대체하고 있다. 특히 AI는 뉴스 콘텐츠 생산에 중요한 역할을 하며, 일부 기업들은 비용 절감을 이유로 AI 앵커나 기사 자동 생성 시스템을 도입하고 있다.
미국의 한 방송 제작 현직자는 AI의 확산이 실질적으로 새로운 일자리를 창출하지 않고 기존 직업들을 대체하고 있다고 주장했다. 실제로, AI는 뉴스 기사 작성, 영상 편집, 음성 더빙 등의 작업을 자동화할 수 있으며, 이는 수천 명의 취업에 영향을 미칠 수 있다. 그러나 이와 동시에 기자들은 AI의 보조 역할을 활용할 수 있는 기회를 찾고 있다. 예를 들어, AI는 전화 취재 내용을 녹취록으로 변환하거나, 데이터를 분석하고 기사를 작성하는 데 도움을 줄 수 있다.
국내에서도 AI의 도입은 활발히 이루어지고 있다. CJB 청주방송은 2024년 3월 AI 앵커를 도입하여 주말 뉴스를 방송하며, 기존 직원들의 근로 환경을 개선했다. 이 AI 시스템은 주말 근무를 대체할 수 있어 휴일 근로 수당을 절감할 수 있지만, 실시간 뉴스 대응에는 한계가 있어 재난 상황에서는 어려움을 겪을 수 있다.
AI는 텍스트 기사와 그래픽 제작뿐만 아니라, 뉴스의 정확성과 공정성을 보장하는 데 있어서도 인간 기자의 역할을 중요하게 만든다. 예를 들어, AI가 작성한 기사는 반드시 기자나 편집자의 검토를 거쳐야 하며, AI의 활용은 보조적인 역할로 제한되어야 한다는 점이 강조된다. 또한, 생성형 AI가 생성한 콘텐츠는 신뢰성을 확보하기 위해 출처와 사실 확인이 필수적이다.
AI의 활용은 뉴스룸에서 효율성을 높이지만, 저널리즘의 본질을 지키는 데 있어 여전히 인간 기자의 역할이 중요하다. AI는 단지 속보나 데이터 분석 등의 분야에서 기자를 돕는 보조 툴로 사용될 것이며, 기자의 고유한 역할을 대체하지는 못한다는 의견이 제시된다. AI가 저널리즘을 보완할 수는 있지만, 그 책임은 여전히 인간에게 있다.
200자평
AI 기술이 방송 및 저널리즘 분야에 도입되어 기존 직무를 대체하고 있다. 예를 들어, AI 앵커와 뉴스 제작 자동화가 진행 중이며, 이는 비용 절감과 효율성을 목표로 한다. 그러나 AI 도입은 기존 기자들의 고용 불안과 윤리적 논란을 초래하고 있으며, AI가 완전히 기자를 대체하기보다는 보조 역할을 한다는 견해도 있다.
지은이
김재희
≪동아일보≫ 기자다. 연세대학교 문헌정보학과를 졸업했다. 히어로콘텐츠팀의 ‘공존: 그들과 우리가 되려면’ 시리즈로 한국기자협회 이달의기자상, 노근리평화상 언론상을 받았다. 풀브라이트 중견 전문가 장학 프로그램의 펠로(fellow)로 선정돼 애리조나주립대학교에서 공부하고 있다. 공저로 『한국 저널리즘의 혁신』이 있다.
이현택
≪조선일보≫ 디지털기획팀 기자다. 연세대학교 경영학과를 졸업하고 동국대학교와 미국 애리조나주립대학교에서 석사 학위를 받았다. ≪중앙일보≫를 거쳐 ≪조선일보≫로 이직했다. 미국 탐사 보도협회(IRE)에서 아시아 국가 출신 최초로 이사로 선출됐다. 저서로 『저널리스트』, 『언론고시 하우 투 패스』(공저)가 있다.
차례
AI, 뉴스룸의 파괴자인가 조력자인가
01 ≪뉴욕타임스≫의 AI 마스터 플랜
02 애리조나주립대학교의 실험
03 유럽 팩트 체커들이 전한 화두
04 AP통신의 AI 프로덕트 전략
05 AI 뉴스 시대의 언론 윤리
06 뉴욕시립대학교의 AI 저널리즘 랩
07 생성형 언어 모델의 환각과 기자
08 한국 언론의 AI 활용 현황
09 기자들이 예측하는 AI와 기자
10 한국 언론에 전하는 혁신 제안
책속으로
ᐨ팩트 체커는 어떻게 AI를 활용할 수 있나.
“그 물음에 대해 스페인 팩트 체크 기관 뉴트럴(Newtral)에서 발표했다. 뉴트럴은 2017년 국제팩트체킹네트워크(IFCN) 공인을 받은 기관으로 메타, 틱톡, 구글 등과 협업을 하면서, 팩트 체킹의 AI화를 연구해 왔다. 뉴트럴의 발표에 따르면, 유럽연합(EU) 시민 3명 중 2명은 한 주에 한 번은 허위 정보를 소비한다고 한다. 이 허위 정보에 빠른 대응이 왜 중요하냐면 위기가 터졌을 때 빠른 대응을 하지 않으면 사회 혼란이 발생할 수 있다. 그러므로 사회의 오정보, 역정보 대응력을 위기 상황에서 키울 수 있는 능력이 필요하고, 이때 AI 팩트 체킹이 유용하다는 이야기다.
예컨대 쓰나미가 터졌다는 가짜 사진이 돌아 시민들이 우려하고 있는 상황을 가정해 보면 된다. 인간과 AI는 이를 위해 허위 정보의 확산을 모니터링하고, 진짜 팩트를 확인하며, 신뢰 가능한 방법으로 검증하고, 허위 정보의 타깃 수용자에게 다가가 이들에게 진짜 팩트를 전달할 수 있다. AI의 도움을 통해 인간 팩트 체커가 검색과 문헌 확인, 인터뷰 등 수작업을 통해 진행한 것을 자동화하고, 그 과정에서 시간과 비용을 절감할 수 있다. 이와 별도로 유럽에서는 AI를 활용해 팩트 체킹 챗봇을 활용하는 시도도 활발하다.”
-03_“유럽 팩트 체커들이 전한 화두” 중에서
AI가 언론사에 혁신을 가져올 수 있는 파괴적 도구라는 것은 자명한 사실이다. 하지만 여전히 국내 언론사가 AI를 활용하는 데 소극적인 이유는 AI가 가진 윤리적 딜레마 때문이다. 생성형 AI의 태생적 한계인 편향, 환각 그리고 저작권 침해 문제는 언론사의 최대 가치인 정확성, 공정성, 투명성을 직접적으로 위협한다. 이러한 한계를 해결하기 위해 해외 유수 언론들은 일찍이 AI를 윤리적이고 효과적으로 활용할 수 있는 가이드라인을 마련하기 시작했다.
-05_“AI 뉴스 시대의 언론 윤리” 중에서
“챗지피티는 완전히 지어낸 정보를 사실인 양 자신 있게 단언할 수 있습니다.” 챗지피티 개발사인 오픈AI의 CEO 샘 올트먼이 직접 밝힌 챗봇의 한계다. 허위 사실의 생산과 유포를 막고, 정확한 뉴스를 공공에 제공할 사회적 책무가 있는 언론의 역할과 대척점에 서 있는 AI의 한계, 바로 ‘환각’이다. 거짓을 사실로 둔갑하는 AI의 환각을 언론사는 어떻게 해결할 수 있을까.
-07_“생성형 언어 모델의 환각과 기자” 중에서
“AI가 생각보다 사실 관계 파악을 잘해요. 수백 장에 달하는 판결문 속에서도 핵심 쟁점이 되는 사실 관계만을 뽑아서 재구성하는데, 법조 기자를 해 본 제가 봐도 구성력이 뛰어납니다. 다만 아직은 판결문이 너무 길면 한계가 있습니다. 테스트 결과 A4 용지 10페이지 이하의 판결문을 바탕으로는 AI가 기사를 잘 쓰고 있고요. 다만, 사생활 보호를 위해 법원에서 판결문에 나오는 실명을 ○○○, △△△ 같이 특정 기호로 바꿔서 언론에 제공하는데, 이때 팩트를 헷갈리는 문제가 있어요. 하지만 이 역시도 개선될 수 있으리라 생각합니다.”
-09_“기자들이 예측하는 AI와 기자” 중에서