책소개
AI 시대, 법은 기술을 따라가는가 설계하는가
인공지능은 더 이상 기술의 문제가 아니라 법의 문제다. 대한민국 「AI 기본법」을 중심으로, 지능 정보 사회에서 법이 어떤 역할을 수행해야 하는지를 체계적으로 해설한다. 기존 법체계가 인간의 행위와 결과를 사후적으로 규율해 왔다면, AI 시대의 법은 자율성과 예측 불가능성을 전제로 사전 위험을 관리하는 방향으로 이동하고 있다. 특히 고영향 인공지능과 생성형 AI에 대한 규율, 알고리즘 편향과 딥페이크 문제, 인간 감독 원칙 등 핵심 쟁점을 구체적으로 풀어낸다. 또한 유럽연합과 미국의 입법 모델을 비교하며, 대한민국이 선택한 ‘진흥과 신뢰의 이중 구조’가 갖는 전략적 의미를 분석한다. 단순한 법 조문 해설을 넘어, 기술 가속성과 법의 후행성 사이의 간극을 어떻게 극복할 것인지에 대한 해답을 모색한다. 기업에는 규제의 방향을, 공공에는 정책의 기준을, 시민에게는 기술에 대한 신뢰의 근거를 제공한다. 「AI 기본법」은 규제가 아니라 미래 사회를 설계하는 나침반이다. 그 나침반을 읽는 방법을 제시하는 책이다.
200자평
AI 시대, 법은 사후 처벌에서 사전 위험 관리로 전환된다. 「AI 기본법」의 핵심 구조와 쟁점을 해설하며, 진흥과 신뢰를 동시에 추구하는 한국형 규범의 방향을 제시한다. 기술과 법의 균형을 이해하는 필수 안내서다. AI문고. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
이웅규
백석대학교 관광학부 및 혁신교육플랫폼대학 교수다. 한양대학교에서 관광학 박사학위를 받았다. 국제관광학회 회장(2008∼2010), 한국도서(섬)학회 회장(2022∼2023), 경북디지털트윈진흥협회 부회장(2023∼2025) 등을 역임했다. 한국생성형AI연구원 교수 등으로 활동하고 있다. 주요 저서로 《제3판 관광정보시스템론》(2015), 《디지털 시대의 MICE산업론》(2022) 등이 있다. “외식산업진흥기본법안(안) 제정에 관한 연구”(2007), “가상융합산업진흥법 제정에 따른 메타버스 관광 발전에 관한 탐색적 연구”(2025) 등 100편 이상의 논문을 KCI 등 등재 학술지에 게재했다.
이준혁
AI여행연구소 대표이사이자 한국생성형AI연구원 사업기획팀 팀장으로 재직 중이며, 현장에서 직접 발로 뛰는 생성형 AI 전문 강사로서 기술의 실무 적용법을 전파하는 데 앞장서고 있다. 일본 쇼비학원대학에서 예술정보학사 학위를 취득하였다. 정보보안 팀 ‘검은 수염’의 리더로서 온라인 해킹 방어대회(CTF) 우승(2016) 및 모의해킹을 통한 취약점 분석 프로젝트를 수행한 바 있다. 주요 저서로 《지방선거 전략 매뉴얼》(2025), 《AI와 휴먼 인사이트》(2025) 등이 있다.
차례
「AI 기본법」을 읽는 이유
01 「AI 기본법」의 탄생
02 총칙으로 읽는 「AI 기본법」
03 「AI 기본법」의 적용 범위
04 신뢰 확보를 위한 핵심 제도
05 AI 산업 육성 및 지원 체계
06 권리 보호와 이용자 중심 구조
07 행정 작용과 집행 체계
08 위반 시 조치와 법적 책임
09 조문별 해설과 적용 사례
10 「AI 기본법」 이후의 미래
책속으로
대한민국의 「AI 기본법」은 EU의 강력한 위험 관리와 미국의 혁신 지향성을 절묘하게 배합한 ‘하이브리드 모델’로 평가받는다. 한국은 EU에 이어 세계에서 두 번째로 종합적인 「AI 기본법」을 제정한 국가다. 특히 ‘고영향 AI’라는 독자적 개념을 통해, EU처럼 모든 고위험 시스템을 사전에 촘촘히 옥죄기보다는 국민의 삶에 중대한 영향을 미치는 영역을 중심으로 책무를 부여하는 실천적 방식을 택했다. 이는 기술 주권을 확보하면서도 글로벌 규제 정합성을 유지하려는 전략적 선택의 결과다.
-01_“「AI 기본법」의 탄생” 중에서
「AI 기본법」은 알고리즘과 데이터 그 자체를 독립적인 처벌 대상으로 삼기보다는, AI 시스템의 ‘신뢰성’을 결정짓는 핵심 구성 요소로서 간접 규율한다. 알고리즘은 AI의 논리적 구조를 형성한다. 법은 고영향 AI 사업자에게 ‘알고리즘의 주요 기준’에 대한 설명 방안을 수립하도록 명시함으로써, 블랙박스(Black-box) 문제를 완화하고 알고리즘적 투명성을 확보하고자 한다.
-03_“「AI 기본법」의 적용 범위” 중에서
「AI 기본법」 제3조(기본 원칙 및 국가 등의 책무)는 AI의 개발과 활용 전 과정에서 준수해야 할 기본 원칙을 규정하고 있으며, 이는 이용자의 권리를 보호하는 최상위 규범으로 작동한다. AI 기술은 인간의 존엄성을 존중하는 방향으로 개발되어야 하며, 이용자에게 차별적이거나 불공정한 결과를 초래해서는 안 된다. 이러한 원칙은 추상적인 선언에 그치지 않고, 사업자가 AI 시스템을 설계할 때부터 안전성과 신뢰성을 확보하는 조치를 강구해야 한다는 구체적 의무로 이어진다. 특히 생성형 AI 서비스의 경우, 예상치 못한 피해를 최소화하고 악의적으로 이용되거나 변경되지 않도록 보안과 안전성을 유지해야 할 책임이 사업자에게 부여된다. 이는 이용자가 AI 서비스를 신뢰하고 이용할 수 있는 ‘신뢰 기반’을 조성함으로써 궁극적으로 산업의 건전한 발전을 이끄는 선순환 구조를 지향한다.
-06_“권리 보호와 이용자 중심 구조” 중에서
「AI 기본법」의 시행령 및 가이드라인 제정 과정에서 가장 뜨거운 쟁점이 된 부분은 ‘고영향 AI’의 범위 확정과 ‘영업 비밀 보호’와 ‘설명 의무’ 사이의 충돌이다. 고영향 AI는 법 제2조 제4호에 따라 11개 영역에서 활용되는 AI 시스템으로 규정된다. 입법부는 사람의 생명이나 기본권에 중대한 영향을 미칠 가능성이 높은 영역을 법으로 특정하여 선제적 규제를 도입했으나, 산업계에서는 ‘중대한 영향’의 기준이 모호하여 혁신이 위축될 수 있다는 우려를 제기해 왔다. 이에 정부는 단순한 규칙 기반 소프트웨어나 보조적 도구는 제외하고, 실제 위험성이 높으며 최종 의사 결정에 사람이 개입하지 않는 경우를 중심으로 규제를 한정하겠다는 방침을 세웠다.
-09_“조문별 해설과 적용 사례” 중에서