책소개
보이지 않는 알고리즘 권력을 드러내는 제도적 설계
AI는 더 이상 행정을 보조하는 도구가 아니다. 정책 판단의 기준이자 권력의 작동 방식으로 자리 잡으며, 국가 운영의 구조 자체를 바꾸고 있다. 이러한 변화의 핵심에서 등장한 ‘공공 AI 영향평가’를 중심으로, AI가 행정 권력으로 기능하는 현실을 정면으로 분석한다. 공공 AI 영향평가는 공공 부문에서 활용되는 AI가 국민의 기본권과 공공 가치에 미치는 영향을 사전에 점검하고 기록하는 제도다. AI가 누구에게 자원이 배분되고, 누가 관리와 감독의 대상이 되는지를 결정하는 상황에서, 그 판단 과정은 더 이상 기술적 문제에 머물지 않는다. 데이터, 모델, 알고리즘은 곧 정책 기준이 되며, 행정 판단은 코드와 예측 결과에 의해 구성된다. AI가 효율성이라는 이름으로 정당화되는 과정에서 권력의 정치성이 어떻게 은폐되는지를 비판적으로 드러낸다. 동시에 AI가 만들어 내는 구조적 편향, 정보 비대칭, 책임의 분산 문제를 구체적인 사례를 통해 설명한다. 특히 예측 치안, 채용 알고리즘 등 반복적 적용을 통해 편향이 강화되는 구조를 분석하며, AI 권력이 어떻게 사회적 불평등을 재생산하는지를 보여 준다. 나아가 공공 AI 영향평가를 단순한 기술 점검이 아닌 ‘권력의 가시화 장치’로 재정의한다. 어떤 문제가 문제로 정의되는지, 어떤 영향이 고려되는지, 누가 평가에 참여하는지에 따라 AI의 사회적 의미가 달라진다는 점을 강조한다.
AI를 통제할 것인가, 아니면 AI에 의해 통치될 것인가. 이 책은 그 질문 앞에서, 공공이 선택해야 할 제도적 방향을 제시하고, AI 거버넌스의 출발점으로서 영향평가를 재구성하며, 기술을 민주적 통제의 영역으로 끌어오는 실천적 틀을 제안한다.
200자평
AI는 행정을 보조하는 도구를 넘어 정책 판단의 기준이 되고 있다. 공공 AI 영향평가를 통해 알고리즘이 행사하는 권력을 드러내고, 그 사회적 영향을 제도적으로 다루는 방법을 탐색한다. 효율성 뒤에 숨은 편향과 책임의 공백을 분석하며, AI를 민주적 통제의 영역으로 이동시키기 위한 제도적 출발점을 제시한다. AI문고. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
양지원
소프트웨어정책연구소 선임연구원이다. 한양대학교에서 행정학(과학기술정책) 박사학위를 취득했다. AI와 행정, 플랫폼 규제, 디지털 정책을 주요 연구 분야로 삼고 있다. 강원특별자치도 공무원교육원 교육훈련심의위원회 위원, 춘천시 재정계획심의위원회 위원, 춘천시 주민참여예산위원회 위원, 원주시 드론산업 활성화위원회 위원, 강원정보문화산업진흥원 ESG경영위원회 위원 등을 역임했다.
주요 논문으로는 “Unintended effects of Digital Market Act on new entry and investment”(2025), “Platform Algorithmic Self-Preferencing and Regulatory Measures: Focusing on European and Korean Cases”(2025), “EU AI Act의 범용·생성형 인공지능 규율의 한계”(2025), “디지털 통상 장벽에 대한 미국의 시각과 한국 정부의 디지털 정책 변화 분석”(2025), “EU 온라인플랫폼 규제: 디지털시장법(DMA)의 주요 내용과 쟁점”(2024), “온라인플랫폼 알고리즘 담합 규제에 관한 탐색적 연구”(2023) 등이 있다.
차례
AI는 행정 권력인가
01 AI 행정국가와 영향평가의 계보
02 공공 AI 영향평가의 문제의식
03 공공 AI 영향평가의 시작
04 공공 AI 영향평가의 주체
05 공공 AI 영향평가의 대상
06 공공 AI 영향평가의 방법
07 공공 AI 영향평가의 공개와 참여
08 실패하는 AI 영향평가의 전형
09 공공 AI 영향평가 모델
10 공공 AI 영향평가의 의미
책속으로
AI 영향평가는 이러한 조건 속에서 등장한 제도적 대응이다. 이는 디지털 기술이라는 새로운 대상에 대한 규제가 아니다. 오히려 행정국가가 오랫동안 반복해 온 질문, 즉 불확실한 위험 앞에서 어떻게 권력을 행사할 것인가라는 문제를 AI 환경에서 다시 제기한 결과다. AI 영향평가는 행정 권력이 기술과 결합하는 과정을 사전에 검토하고, 그 선택의 근거를 문서화하며, 책임의 위치를 다시 설정하려는 시도다. 이 점에서 AI 영향평가는 지속의 산물이다. 환경 영향평가, 개인정보 영향평가, 인권 영향평가로 이어져 온 제도적 계보는 AI 행정국가에서도 반복된다. 새로운 기술이 등장할 때마다 행정국가는 다시 한번 영향평가를 호출해 왔다. 이는 기술 변화에 대한 즉각적 대응이라기보다, 행정 권력을 민주적으로 정당화하고 책임을 구성하려는 제도적 노력의 연속선상에 놓여 있다.
-01_“AI 행정국가와 영향평가의 계보” 중에서
세 번째 유형은 이미 운영 중인 AI 시스템에 대해 외부의 검증 요구가 제기되면서 영향평가가 개시되는 경우다. 이는 사전 분류나 생애주기 관리 체계가 위험을 충분히 포착하지 못했음이 드러나는 상황에서 나타나는 보완적 경로다. 형식적으로는 사후 문제 제기처럼 보일 수 있으나, 실제로는 기존의 사전 통제가 실질적으로 작동하지 않았음을 드러내고 이를 재가동하는 계기로 기능한다.
-03_“공공 AI 영향평가의 시작” 중에서
알고리즘 영향평가의 첫 단계는 자동화된 의사 결정 시스템을 설명하는 것이다. 캐나다의 영향평가는 평가를 정확도나 처리 속도와 같은 기술 성능 분석에서 시작하지 않는다. 대신 행정기관이 해당 시스템의 목적, 사용 맥락, 결정의 성격, 자동화 수준, 그리고 인간 개입의 위치를 문서로 명확히 기술하도록 요구한다. 이 단계의 핵심은 자동화된 의사 결정 시스템이 어떤 행정 판단을 대체하거나 보조하는지, 그 판단이 시민의 권리와 의무에 어떤 영향을 미칠 수 있는지를 구조적으로 드러내는 데 있다.
-06_“공공 AI 영향평가의 방법” 중에서
각국의 AI 영향평가 모델들은 하나의 발전 경로에 놓여 있지 않다. 각 모델은 AI를 어떻게 이해하는지에 따라 분기된다. 위험한 기술로 볼 것인지, 조정 가능한 행정 도구로 볼 것인지, 조직이 관리해야 할 위험으로 볼 것인지에 따라 영향평가의 목적과 작동 방식이 달라진다. 위험 기반 법적 의무 모델은 법을 통해 권력을 외부에서 제한하려 하고, 위험 기반 행정 규칙 의무 모델은 행정 설계를 통해 권력을 내부에서 조정하려 하며, 프레임워크 기반 자율 관리 모델은 조직의 책임성과 관리 역량을 통해 권력을 흡수하려 한다. AI 영향평가에서 중요한 질문은 비교 우위에 있지 않다. 관건은 어떤 권력을 어떤 논리로 통제할 것인가다.
-09_“공공 AI 영향평가 모델” 중에서