책소개
기술의 속도에 맞서는 인간의 존엄, 인권의 역습
인공지능은 인간의 도구를 넘어 인간의 판단과 책임의 영역까지 침투하고 있다. 이 책은 그 변화의 중심에서 가장 근본적인 질문을 던진다. 인간은 여전히 스스로 판단하고 책임지는 존재로 남아 있는가. 알고리즘은 효율과 정확성을 앞세워 의사 결정을 대체하지만, 그 과정은 점점 더 불투명해지고 인간은 결과만을 수용하는 존재로 전락한다. 노동 현장에서의 알고리즘 통제, 재판과 행정에서의 기계적 판단은 인간의 존엄을 위협하는 새로운 권력이 되고 있다. 저자는 이러한 현실을 ‘인공지능 권력’으로 규정하고, 이에 맞서는 ‘인권의 역습’을 선언한다. 설명받을 권리, 재심을 요구할 권리, 그리고 책임을 묻는 법적 원칙을 통해 기술을 인간의 통제 아래 두어야 한다고 주장한다. 기술을 거부하는 것이 아니라, 기술 위에 인간의 기준을 다시 세우려는 시도다. 인공지능 시대, 인간의 눈물과 고통을 이해하지 못하는 기계의 판단에 맞서 인간다움을 지키기 위한 법과 철학의 선언문이다.
200자평
AI는 빠르고 정확하지만 인간의 고통을 이해하지 못한다. 이 책은 알고리즘 권력에 맞서 인간의 존엄과 권리를 회복해야 한다고 말한다. 설명 요구권과 책임 원칙을 통해 기술을 인간의 통제 아래 두려는 ‘인권의 역습’을 선언하며, AI 시대의 새로운 기준을 제시한다. AI문고. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
노호창
서울대 법대를 졸업하고 같은 대학원에서 법학석사 학위와 법학박사 학위를 받았다. 서울대, 서강대, 이화여대, 인하대 등 여러 대학에서 강의하였고 현재 호서대 법경찰행정학과 교수로 재직 중이다. 경기지방노동위원회 공익위원, 중앙행정심판위원회 심판위원, 충남행정심판위원회 심판위원, 법무부 출입국·외국인정책본부 정책심의위원, 충남경찰청 수사심의위원 등을 역임하였다.
노동, 사회보장, 외국인, 인공지능 등에 관심을 가지고 법학적 관점에서 연구하고 있다. 주요 저서로 《교양노동법》(제4판, 공저, 2026), 《인공지능(AI)의 인사노무관계 진입과 노동법적 쟁점》(공저, 2024), 《이민법》(제3판, 공저, 2023), 《글로벌 법제논의의 현황과 전망: ILO 노동인권규범의 국내이행평가와 법제적 시사점을 중심으로》(2018) 등이 있다. “인공지능에 관한 규제와 혁신 간의 긴장관계에 있어서 스페인과 브라질의 동향과 시사점”(2025), “노동 영역에서 알고리즘 혹은 인공지능에 대한 스페인의 규율 및 검토”(2024), “A Comparative Study on the Protection of Citizens’ Right to Health Focus on the Public Health Policy of Korea and the USA”(2019) 등 100여 편 이상의 논문을 KCI, SSCI 등 학술지에 게재했다.
차례
기계의 연산에는 눈물이 없다
01 전환(Transformation)
02 의존(Dependence)
03 위협(Threat)
04 사생활(Privacy)
05 평등(Equality)
06 노동(Labor)
07 투명성(Transparency)
08 책임(Accountability)
09 연대(Solidarity)
10 선언(Declaration)
책속으로
이 거대한 전환을 어떻게 해석하고 규율할 것인가에 대해서는 두 가지 상반된 관점을 생각할 수 있다. 첫째는 기술결정론(technological determinism)적 관점이다. 이 관점에서는 기술 발전을 거스를 수 없는 흐름으로 보아 법과 규범은 기술의 변화에 맞추어 사후적으로 재편되어야 한다고 생각할 수 있다. 이 경우 인권적 가치를 강조하기보다는 기술 혁신을 위한 규제 완화가 우선시된다. 인간은 곧 기술의 진보에 적응해야 하는 수동적 객체로 자리매김하게 된다. 둘째는 기술결정론에 비판적인 관점이다. 이를 사회결정론(social determinism)적 관점이라고 이름 붙일 수 있겠다. 이 관점에서 보자면, 기술은 어디까지나 사회적 필요와 시대적 가치 그리고 권력 구조가 투영된 산물이다. 그렇다면 인공지능이 편향된 결과를 내놓거나 인권을 침해하는 결과를 가져오게 된다면, 이는 기술 그 자체가 가진 내재적 숙명이 아니라 데이터 분석과 알고리즘 설계에 인간의 편견과 자본의 탐욕이 반영된 결과라는 것이다.
-01_“전환(Transformation)” 중에서
인공지능이 초래하는 인권에 대한 위협은 과거 국가권력이 행사하던 물리적 폭력이나 명시적인 법적 배제와는 그 모습을 전혀 달리한다. 과거의 인권 침해가 눈에 보이는 공권력의 집행이라든가 명문화(明文化)된 차별 조항을 통해 이루어졌다면, 인공지능 시대의 침해나 위협은 정교한 알고리즘의 코드와 방대한 데이터의 연산 뒤에 은밀하게 숨어 있다. 이러한 비가시성(非可視性)은 피해자가 자신의 인권이 위협되고 있거나 침해당하고 있다는 사실조차 인지하지 못하게 만든다. 이러한 결과 인권 보호의 공백이 발생하고 심화된다. 인공지능이 초래하는 위협의 핵심은 기술적 난해성으로 점철된 불투명성과 그와 결합된 편향성에 있다.
-03_“위협(Threat)” 중에서
이러한 숨바꼭질 속에서 노동자는 투명한 벽에 부딪힌다. 기계의 판단에 오류가 있음을 직관적으로 알면서도, 그 원인과 논리를 증명할 수 없기에 구제받지 못하는 상황이 발생할 수 있다. 이는 법과 절차에 의해 보호받지 못하는 실체적·절차적 정당성의 실종을 의미한다. 노동 현장에서 알고리즘이 내리는 징벌적 결정에 대해 인간 상사가 최종적인 책임을 지고, 그 결정의 근거를 노동자가 납득할 수 있는 언어로 설명해야 한다는 규범적 원칙이 세워져야 하는 이유다.
-06_“노동(Labor)” 중에서
진정한 글로벌 연대는 이러한 기술 격차가 인권 격차로 이어지는 것을 막는 데 집중해야 한다. 글로벌 사우스 국가들이 기술 거버넌스의 의사 결정 과정에서 소외되지 않도록 포용적인 참여 구조를 만들어야 한다. 기술 선진국은 자신들이 만든 규범적 표준을 일방적으로 강요하기보다 개발도상국이 자국의 맥락에 맞는 인권 보호 체계를 구축할 수 있도록 지식과 자원을 공유해야 한다. 이는 전 인류가 기술 발전의 성과를 평등하게 누리기 위한 ‘디지털 연대’의 기초다.
-09_“연대(Solidarity)” 중에서