책소개
생성형 AI 시대, 책임의 경계를 묻다
생성형 AI 서비스가 불러올 법적·사회적 책임 문제를 심층적으로 다룬다. 챗GPT 등 대규모 언어 모델 기반 서비스가 보편화되면서, 데이터 저작권 침해, 환각(Hallucination)으로 인한 명예 훼손, 부정확한 정보 제공 등 새로운 법적 쟁점이 등장했다.
이 책은 AI 개발자·서비스 제공자·이용자 간의 책임 소재를 명확히 하고, AI 사업자가 온라인 서비스 제공자(OSP) 또는 인터넷 서비스 제공자(ISP)로서 면책 규정을 적용받을 수 있는지 검토한다. 반대로 콘텐츠 제공자(CP)로 인정될 경우 발생할 책임 부담과 서비스 위축 가능성도 짚는다. AI 결과물의 법적 성질, 투명성·설명·데이터 공개 의무, 검색 증강 생성(RAG) 등 기술적 대응 방안과 그 한계, 제도 설계 방향까지 정리했다. 기술 발전과 법·정책의 균형, 그리고 건강한 시장 성장을 위한 책임 구조 확립의 중요성을 강조한다.
200자평
생성형 AI의 저작권·명예훼손·환각 문제를 중심으로 OSP·ISP·CP의 법적 지위와 책임 범위를 분석한다. 기술 한계와 제도 설계를 함께 짚으며 건강한 AI 생태계를 위한 책임 구조를 제안한다. 인공지능총서. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
김윤명
작가 김윤명은 디지털정책연구소(DPI) 소장이다. 남도의 니르바나, 땅끝 해남에서 태어났다. 광주 인성고와 전남대 문헌정보학과를 졸업하고, 경희대에서 지식재산법을 전공하여 박사학위를 받았다. 현재는 세종사이버대에서 정보보호학을 공부하고 있다.
그는 네이버 정책수석을, 소프트웨어정책연구소(SPRi)에서 소프트웨어와 인공지능 법제 연구를, 국회에서는 보좌관으로 입법과 정책을 다루었다. 이재명 경기도지사 캠프와 인수위인 새로운경기위원회에서, 그리고 이재명 대통령후보(20대, 21대) 캠프에서 활동했다. 대통령소속 국가지식재산위원회 AI-IP 특위에서 AI 시대에 변화하는 지식재산의 지형을 함께 그렸다. 경희대학교 법무대학원에서 인공지능법을, 전남대학교 데이터사이언스대학원 데이터사이언스 법과 윤리를 강의하며 다음 세대를 준비하고 있다.
사유하고 질문하고 기록하는 일은 그의 일상이다. 《블랙박스를 열기 위한 인공지능법》은 교육부 우수학술도서로, 《게임법》, 《게임서비스와 법》, 《인터넷서비스와 저작권법》은 문화체육관광부 세종도서(우수학술도서)로 선정되었다. 2025년 7월에 나온 《모두의 AI》는 이재명 정부가 추구하는 ‘모두의 AI’와 이를 통해 실현하고자 하는 ‘AI 기본사회’의 가치와 이념이 담겨 있다.
그는 시를 짓고 사진을 찍는다. 두 아이들의 강하중학교에서 발간한 시집 《나에겐 비도 맛있다》에 몇 편의 시를 담았다. 아내와 아이들, 그리고 시고르자브종 리카와 밴, 동네 골목, 바람과 하늘, 꽃과 나무 등 세상의 모든 숨결이 그의 렌즈에 깃든다. 사람들의 짠하고도 아심찬한 풍경을 기록한다. 시집을 내고, 사진 갤러리를 여는 것이 꿈이기도 하다.
또한 집 안에 ‘도서관N’을 세웠다. 정사서 1급 자격증을 가지고 있지만, 도서관장은 아내이다. N은 네이버와 한게임의 합병법인 NHN(Next Human Network)에서 따온 Next를 의미한다. “도서관엔(N) 뭐가 있을까? 도서관엔(N) 길이 있지! 도서관 다음엔(N) 뭘 만들지?” 이런 장난스러운 물음 속에 세상을 향한 다음 걸음을 품는다. 언젠가 모두를 위한 더 큰 도서관N을 짓겠다는 꿈을 품고 있다.
그는 다시 길을 내려 하고 있다.
AI를 비롯한 디지털 법제와 정책을 연구하기 위해 디지털정책연구소(Digital Policy Institute)를 세웠다. 그와의 인연은 digitallaw@naver.com을 통해 이어질 것이다.
차례
왜 AI와 OSP 책임인가?
01 생성형 AI 서비스의 구조
02 OSP 개념과 AI 환경에서의 확장
03 AI 서비스 제공자의 법적 지위
04 AI 서비스 제공자의 법적 책임
05 AI 생성물의 권리 침해와 책임
06 AI 검색과 서비스 제공자 책임
07 AI 서비스와 소비자 보호
08 OSP 면책과 AI 서비스
09 OSP 자율 규제와 거버넌스
10 시사점
책속으로
AI 모델을 직접 구축하는 데에는 작지 않은 비용이 소요된다. 따라서 직접 모델을 구축하기보다는 제3자가 이미 구축한 모델을 기업 제공(B2B) 방식으로 라이선스해 제공하는 방식이다. 챗GPT의 API를 활용하는 경우가 대표적이다. 챗GPT의 기반 모델인 GPT3 모델을 활용함으로써, 다양한 응용 서비스를 만들 수 있기 때문이다. 물론 기반 모델이 있기 때문에 경쟁력 있는 서비스를 위해서는 별도로 미세 조정을 하게 된다. 임베디드 모델은 미세 조정 과정을 거치면서 특화된 서비스를 제공하는 경우다. 전적으로 제휴사의 LLM만을 의존하는 것이 아닌, 자사가 갖고 있는 데이터를 제공해 미세 조정하는 방식이다. 미세 조정은 기본적인 모델은 LLM의 데이터 기반 모델에 의존하지만 보다 특화된 결과물을 제공하기 위해 자체적으로 구축한 데이터 기반의 서비스를 제공하는 방식이다.
-01_“생성형 AI 서비스의 구조” 중에서
P2P 서비스를 제공하는 소리바다5 사건에서는 유통되는 음원에 대해 해시값 대조 기술, 음악 지문(Audio Finger Printing) 비교, 그린파일 시스템 등을 이용한 필터링 기술을 도입했다. 해시값 대조 기술은 음원 파일의 해시 함수를 적용해 해시값들을 생성한 다음, 이를 서버에 데이터베이스(DB)로 축적하고 다운로드 요청 시 동일성을 판단하는 방식이다. 또한 같은 음원이라도 다양한 변형 파일이 존재하기 때문에 이를 보완하기 위해 음악 지문을 DB화하고, 사전 동의(opt-in) 방식으로 ‘그린파일’ 시스템을 도입해 권리자의 등록을 통해 필터링했다. 서울고등법원은 이 사건에서, 소리바다5가 방조 책임을 질 수 있는지를 판단하면서 “이용자의 침해를 미필적으로 인식하고도 방지하지 않았다면 방조 책임이 성립된다”라고 보았다. 특히 “적극적 필터링” 기술이 가능한 상황에서 “소극적 필터링”만으로 불법 파일 유통을 방관한 점을 지적했으며, 이에 따라 소리바다5는 「저작권법」 제102조 제2항에 따른 면책 대상이 될 수 없다고 판단했다.
-03_“AI 서비스 제공자의 법적 지위” 중에서
서비스 제공자의 관여나 개입은 여러 가지 방식으로 이뤄질 수 있다. 검색 결과에 대해 임의적인 관여, 검색 알고리즘의 조작 등을 통해 가능하다. 인터넷상에 공개된 정보를 크롤링해, 결과로 내보이는 인터넷 검색은 사실의 적시다. 링크를 제공함으로써, 검색에 대한 자세한 내용은 해당 사이트에서 열람이 가능하다. 이러한 점에서 검색 엔진의 결과물은 사실의 나열이다. 그렇지만 AI 검색은 인터넷상에 공개된 데이터를 학습함으로써 사실과 아닌 것이 혼재된 상태로 저장된다. 학습된 결과물에 대한 저장이라는 점에서 사실의 나열로 보기 어렵다. 일종의 가공이 이뤄진다. 다만 RAG 방식에서 인터넷 정보를 크롤링해 DB화한 경우라면 일반적인 인터넷 검색과 정보의 내용에서 큰 차이는 없을 수도 있다.
-06_“AI 검색과 서비스 제공자 책임” 중에서
「저작권법」은 OSP의 면책 요건으로 명백한 인식, 기술적·경제적 통제 가능성을 규정하고 있다. OSP와 달리, AI 서비스 제공자가 명백하게 이용자의 불법 행위를 인식할 가능성은 높지 않다. 프롬프트를 이용한 생성 행위는 이용자의 지배 영역에 있는 것이지 서비스 제공자의 지배 영역에 있는 것으로 보기 어렵기 때문이다. 그렇지만 경험상 생성형 AI가 가져오는 문제점들에 대해 인식하고 있다. 즉, 환각 현상, 딥페이크, 편향, 저작권 침해 등 다양한 이슈가 발생하고 있다는 점을 알고 있을 것이라는 점이다. 이러한 문제를 개선하기 위한 더욱 정제된 데이터의 활용, 필터링이나 워터마킹 등 기술적 방안들이 제시되고 있다. 서비스 제공자는 AI 서비스가 불완전하다는 점을 알고 있다고 볼 여지가 충분하다. 다만 일반적인 상황의 인식과는 별개로 자사의 서비스에서 제공하는 구체적인 문제점을 인식할 수 있다는 것은 별개로 보인다. 수많은 이용자가 생성하는 결과물에 대해 서비스 제공자가 문제 되는 내용을 일일이 모니터링한다는 것은 불가능한 수준으로 보이기 때문이다.
-09_“OSP 자율 규제와 거버넌스” 중에서