책소개
AI 책임 시대의 민사법적 쟁점, 어디까지 준비되어 있는가
AI가 스스로 판단하고 행동하는 시대, 그로 인한 손해나 피해는 누가 책임져야 하는가? 급변하는 기술 환경 속에서 기존 민법 체계로는 감당하기 어려운 쟁점들을 체계적으로 정리한다. 자율주행차 사고, 알고리즘 차별, AI의 계약 체결 및 권리 행사 등 복잡한 민사 문제를 다루며, AI의 법인격 부여 가능성과 손해배상 책임 구조를 분석한다. 미국 FTC의 알고리즘 지침과 EU AI법, 한국 AI 기본법까지 비교하면서 각국의 입법적 대응과 시사점도 폭넓게 다룬다.
AI의 결정이 인간의 권리를 침해할 때, 책임은 누구에게 있으며 어떤 방식으로 귀속되어야 하는가에 대한 깊이 있는 통찰을 제공한다. AI가 법적 행위 주체가 되는 미래를 준비하기 위한 필독서다. 기술을 넘어 책임의 경계를 새롭게 묻는다.
200자평
AI 시대의 법적 책임 문제를 다룬다. 자율주행, 알고리즘 편향, 계약 체결 등에서 발생할 수 있는 민사 책임을 국내외 법제와 함께 분석한다.
지은이
조장우
영남대학교 천마인재학부·경찰행정학과 겸임교수이며 학술연구기관 한국정책미디어연구원의 대표를 맡고 있다. 통일부 통일교육위원 대구협의회 사무처장을 지내고, 현재 감사로 활동하고 있다. 영남대학교에서 법학 박사학위를 받았다. 영남대학교 법학연구소에서 선임연구원으로 재직했고, 경북대학교 IT와법센터에서 박사후연구원으로 재직했다. 한국연구재단의 인문사회학술연구교수로서 인공지능과 디지털콘텐츠 관련 연구책임자로 10여 년간 학술연구를 수행했다. 주요 저서로 《통합 민법총칙》(2018)이 있으며 수십 편의 논문을 다수의 등재 학술지에 게재했다.
차례
AI의 법적 책임에 어떻게 대응하는가?
01 AI의 행위에 대한 법적 책임
02 AI의 법적 지위
03 AI에 의한 계약 성립
04 AI에 의한 의사 표시의 법적 효력
05 사물인터넷에 기반한 AI의 오류
06 AI에 의한 의료 행위와 손해
07 AI 이용자 보호 방안으로서 책임보험 제도
08 AI의 불법행위
09 AI에 대한 제조물책임법의 한계와 민법의 대응
10 AI의 딥러닝과 저작권 침해
책속으로
AI 사용자도 AI에 의한 책임의 위험에서 벗어나기 위해 몇 가지 조치를 취해야 한다. 우선 AI 시스템을 제공된 지침과 설명에 따라 올바르고 안전하게 사용해야 한다. AI의 한계와 오류 가능성을 인지하고, 중요한 의사 결정에 AI 결과만 맹신하지 않도록 주의해야 하는 것이다.
다음으로 AI를 예측 가능한 범위를 벗어나 오용하거나, 의도와 다르게 악용하지 않아야 한다. AI가 제공하는 정보나 결과를 사회적·법적 기준에 맞게 활용해야 하는 것이다.
또한 개인정보 등 민감한 데이터를 AI에 입력하거나 활용할 때 관련 법령을 준수해야 하며, 데이터 보호에 유의해야 한다.
그리고 AI 시스템의 오류, 편향, 부적절한 결과 등을 발견하면 즉시 피드백을 제공하고, 필요한 경우 문제를 제기해야 한다.
마지막으로 AI의 결정을 참고하되, 궁극적인 의사 결정 책임은 본인에게 있음을 인식하고, 중요한 결정에는 본인의 판단을 반드시 개입시켜야 한다.
-01_“AI의 행위에 대한 법적 책임” 중에서
AI가 자율적으로 계약을 체결한 경우, 이용자의 의도와 다를 수 있으므로 그 결과에 대한 책임을 누구에게 귀속시킬지 명확히 할 필요가 있다. 이를 위해 민법상 표현대리 법리의 유추 적용 등 법적 장치를 활용해 적정한 위험 배분이 이루어져야 한다.
AI를 이용하는 당사자와 그렇지 않은 당사자 간의 합리성 격차(비대칭성)가 발생할 수 있어, 상대방의 자기결정권 보호를 위한 법적 장치가 필요하다.
AI 계약에서 사적 자치의 원칙이 제대로 작동하려면, 공정하고 신뢰할 수 있는 AI 시스템 구축, 알고리즘 감사, 투명한 의사 결정 과정 등이 필수적이다.
-03_“AI에 의한 계약 성립” 중에서
정리하면 의료 AI는 의료 서비스의 혁신을 이끌 수 있는 강력한 도구이지만, 정확성, 편견, 개인정보 보호, 규제, 윤리, 사회적 수용성 등 다양한 문제점을 안고 있다. 이러한 문제점들을 해결하기 위해서는 기술적 발전뿐만 아니라 법적, 윤리적, 사회적 프레임워크의 구축이 필요하며, 모든 이해관계자(의료 제공자, 기술 개발자, 규제 기관, 환자)의 협력이 중요하다. 특히, AI가 의료 서비스에서 안전하고 공정하게 사용되도록 하기 위해서는 투명성, 책임성, 신뢰성을 강화하는 것이 필수적이다.
-06_“AI에 의한 의료 행위와 손해” 중에서
미국은 2018년 테슬라(Tesla) 자율주행차 사고로 제조업자 책임의 소송이 제기되어 AI 알고리즘 결함이 주요 쟁점으로 진행 중인데 아직 별도 법 개정은 없고, 기존 「제조물책임법」을 AI 관련 판례에 따라 유연하게 해석하는 방식을 취하고 있다.
한국도 2026년 1월 22일 시행되는 「AI 기본법」에서 AI 시스템의 안전성과 투명성을 강화하며, 「제조물책임법」과 연계한다.
의료, 에너지 등에 사용되는 고영향 AI는 위험 관리 계획, 영향 평가, 인간 감독의 의무화를 규정하고 생성형 AI에서는 가령 딥페이크 워터마킹과 같은 콘텐츠 라벨링을 요구하며 비준수 시 최대 3천만 원의 벌칙 조항을 두고 있다. 다만 AI 결함의 책임 소재(개발자 vs. 사용자)와 소프트웨어의 제조물 여부에 대한 명확한 기준이 부족하다는 한계가 있다.
-09_“AI에 대한 제조물책임법의 한계와 민법의 대응” 중에서