책소개
인간과 로봇의 공존
기술 발전, 특히 인공지능(AI)과 로봇 기술의 발전이 인간 사회와 사고에 미치는 영향을 살펴본다. 마셜 매클루언의 “우리가 도구를 만들고, 다시 도구는 우리를 만든다”는 말을 인용하며, 기술이 인간의 사고와 신체적 능력을 확장하며 새로운 사회적 구조를 형성한다는 점을 강조한다. 특히 AI와 로봇 경찰의 등장에 대해, 그들이 단순히 도구에 그치지 않고 사회적, 법적 역할을 맡게 되는 변화에 대한 우려와 가능성을 다룬다.
중요한 문제는 AI 알고리즘의 편향성과 불투명성이다. AI가 인간의 결정권을 침식할 수 있고, 공정성이나 윤리적인 문제를 야기할 수 있다는 지적은 매우 중요한 논의다. 특히 2016년 미국의 컴퍼스 사례를 통해 AI 알고리즘이 편향을 드러내며 인간의 자유를 침해할 수 있음을 경고한다. 또 AI와 로봇 경찰이 공공의 안전을 위해 도입되더라도, 그 설계와 운영에 윤리적 고려와 공정성을 담보할 수 있는 법적, 제도적 장치가 필요하다.
이 책은 AI와 로봇 경찰이 실제 사회에서 어떻게 사용되고 있는지, 그리고 그것이 가져오는 윤리적, 법적 문제를 다루며, 책임 있는 AI 설계와 인간과 로봇의 공존을 위한 방향성을 제시하려고 한다. 또 AI와 로봇의 도입이 단순한 기술적 혁신에 그치지 않고, 인간성과 사회적 가치의 본질을 고민하는 과정임을 강조한다.
결국 이 글은 로봇과 AI가 인간 사회에서 중요한 역할을 맡게 되는 현 시대에서, 기술과 윤리, 그리고 공공의 신뢰를 어떻게 구축할 것인가에 대한 깊은 성찰을 제시한다.
200자평
AI와 로봇 기술의 발전이 인간의 사고와 사회 구조에 미치는 영향을 다룬다. 특히, 로봇 경찰의 등장과 그로 인한 윤리적, 법적 문제를 논의하며, AI 알고리즘의 편향성과 불투명성 문제를 지적한다. 기술과 윤리의 균형을 맞추고, 인간과 로봇의 공존을 위한 책임 있는 AI 설계를 강조한다.
지은이
송진순
동아대학교 행정학과 조교수다. 주요 연구 분야는 시민과 정부 간 공공 소통 채널 및 방식에 대한 정책적 논의이며, 참여적이고 확대된 미디어로서의 AI의 인문사회적인 논의와 윤리적 사용에 대한 논문을 주로 쓰고 있다. 주요 저서로는 『Advanced Virtual Assistants – A Window to the Virtual Future』(공저)가 있으며, 역서로는 『글로벌비지니스를 위한 문화 간 커뮤니케이션』(공역)이 있다. “AI Act, 2024 대선 그리고 허위정보에 맞서는 인간과 AI의 공공소통 검증 프로젝트”(2024), “로봇 경찰의 의사결정과 법집행에 있어 윤리적 요구: 블랙박스, 편향 그리고 거버넌스적 윤리 프레임워크”(2023), “지역경찰의 인공지능 챗봇 도입을 통한 공공소통 증진과 신뢰도 향상 방안 연구”(2022), “The Implications of Providing Voice-Based Chatbots in Public Service for Digital Inclusion and Public Communication”(2022) 등 다수의 논문이 있다.
차례
인간과 로봇의 공존을 위한 나침반
01 로봇과 로봇 경찰
02 경찰과 AI: 범죄 예방 AI 기술
03 로봇의 법적 지위와 법 집행
04 AI 기술 위험성: 미 사법부 컴퍼스 사례
05 AI 알고리즘이 뭐지? 왜 이토록 나의 관심사를 잘 알지?
06 AI 편향과 블랙박스, 디지털 레드라이닝
07 로봇이 가진 편향과 사례
08 책임 있는 AI와 포용성
09 로봇 경찰의 윤리적 프레임워크
10 AI와 미래 치안
책속으로
기술은 본질적으로 선도 악도 아니지만, 사용하는 방식에 따라 그 성격이 결정된다.
로봇이 인간 사회에 깊숙이 들어온 오늘날, 로봇의 역할과 한계를 재정의할 필요가 있다. 로봇 경찰과 같은 기술적 구현은 치안과 정의의 미래를 어떻게 바꿀 것인지 질문을 던진다. 로봇 경찰은 효율과 공정을 겸비한 이상적 존재일까, 아니면 통제의 수단이 될 위험을 품고 있을까? 로봇 경찰의 개념과 사례를 통해 기술이 정의, 윤리, 인간성을 어디로 이끌어 갈지 탐구한다. AI와 로봇공학이 빚어낼 새로운 질서 속에서, 우리는 어떤 선택을 해야 할까?
-01_“로봇과 로봇 경찰” 중에서
유엔은 그동안 자율 규제로만 거대 플랫폼 기업 및 로봇 산업에 적용되던 것을 직접적으로 포괄할 수 있는 인공지능 법(AI Act, AIA)을 만들었다. AI 법은 AI 시스템의 위험(risk)을 평가하는 프레임워크를 제공하고 AI 시스템이 해당되는 위험 범주에 따라 의무를 정의한다. 일반적으로 그동안은 자율규제와 심의에 의존했다면, AIA는 연구 육성과 혁신을 허용하는 소위 샌드박스를 제공하거나, AI 기술이 책임감 있고 투명하게 사용되도록 보장하면서 사회적 악영향을 해결하는 것의 중요성을 강조하며, 윤리적 AI 연구에 대한 구조화된 환경 제공이 절실히 필요한 시점임을 입증한다. 위험 평가 및 관련 의무에 대한 규정이나 정의가 쉽지는 않겠지만, 혁신을 방해하지 않고 윤리적 고려 사항을 AI 시스템에 통합하는 문제와 씨름하면서 복잡한 규정 준수 환경을 탐색해야 한다. 반면 엄격한 규정이 잠재적으로 AI 개발 및 배포 속도를 방해할 수 있다는 점에서 이 법은 양날의 칼이다. AIA는 디지털 시대에서 사용자의 권리와 안전을 보장하는 데 유익하고, AI가 생성한 허위 정보, 딥페이크 및 기타 형태의 디지털 조작과 관련된 위험으로부터 사용자를 보호할 것을 약속한다. 투명성, 책임 및 신뢰성에 대한 명확한 기준을 설정함으로써, 사용자가 AI 기술에 대한 신뢰를 촉진하고 기술을 보호하면서 AI 발전으로부터 이익을 얻을 수 있도록 하는 것을 목표로 한다.
-03_“로봇의 법적 지위와 법 집행” 중에서
도덕적으로 올바르고 사회적으로 책임감 있는 방식으로 개발되고 사용되는 AI를 책임 있는 AI(Responsible AI, RAI)라고 한다. 책임 있는 AI는 AI 시스템을 안전하고 신뢰할 수 있으며 윤리적인 방식으로 개발, 평가 및 배포하는 접근 방식이다. AI 시스템은 이러한 시스템을 개발하고 배포하는 사용자에 의한 다양한 의사 결정의 산물이다. 책임 있는 AI는 사전에 시스템 용도에서 사용자가 AI 시스템과 상호 작용하는 방법에 이르기까지 이러한 결정을 더 유익하고 공평한 결과로 안내하는 데 도움이 될 수 있다. 즉, 사람과 목표를 시스템 설계 결정의 중심에 두고 공정성, 신뢰성 및 투명성과 같은 지속적인 가치를 존중하는 것을 의미한다(learn.microsoft.com, 2024). 블랙박스 AI와 기계 편향으로 인해 발생할 수 있는 부정적인 재정적·평판적·윤리적 위험을 줄이기 위해, 책임 있는 AI의 지침 원칙과 모범 사례는 소비자와 생산자 모두에게 도움이 되도록 고안되었다.
-08_“책임 있는 AI와 포용성” 중에서
로봇 경찰의 윤리적 사용에 대한 기술적·행위적 중장기적 로드맵의 필요성이 절실하다. 로봇 기술의 발전은 기존의 법과 제도, 규범 등에 상당한 혼란을 초래하고 있다. 개발자, 생산자, 사용자 등의 참여적 행위 규제와 블랙박스, 편향, 할루시네이션 등을 방지할 기술적인 규제까지 망라한 새로운 윤리 표준(standards) 및 규정(regulation)이 상호적이고 협업적으로 작동할 수 있어야 한다. 이는 제도적 표준을 마련할 때 로봇이 가지는 공학적 설계에 윤리성을 부여한다는 것은 적합한 철학적 문제의 윤리 공식화와 지능형 자율 시스템에서 도덕적 추론을 구현해야 한다는 중대한 두 가지 과제를 포괄해야 한다는 것이다(Fisher et al., 2016). 따라서 설계자에게 제품이나 서비스에서 발생하는 윤리적 해악의 가능성을 줄이는 방법에 대한 지침을 제공해야 한다.
-09_“로봇 경찰의 윤리적 프레임워크” 중에서