책소개
AI 로봇 시대, 안전을 어떻게 설계할 것인가
생성형 AI와 로봇 기술이 일상 깊숙이 들어온 지금, 우리가 가장 먼저 묻고 대비해야 할 문제인 “AI 로봇은 얼마나 안전한가?”를 본격적으로 다룬다. 지브리 스타일 이미지 변환부터 서빙 로봇, 바리스타 로봇, 웨어러블 의료 로봇, 휴머노이드까지 AI 로봇은 이미 다양한 형태로 인간 곁에 자리 잡았다. 하지만 그 확산 속도만큼이나 예측 불가능한 사건도 늘고 있다. 인간 신체를 오인한 로봇의 치명적 사고, 잘못된 판단으로 인한 권리 침해, 경제적 손실, 사회적 혼란 등은 이제 단순한 기술적 오류를 넘어선 구조적 위험으로 다가온다. 이 책은 이러한 위험을 단순히 경고하는 수준에서 그치지 않는다. 기술·윤리·사회·법제를 통합한 체계적 분석을 통해 로봇 위험성의 네 가지 유형, 곧 물리적 위험, 권리 침해, 재산 손실, 사회적 위험을 세분화하고, 이를 실제로 평가하고 대비할 수 있는 AI 로봇 위험성 측정 지표를 제시한다. 11개 항목, 52개 세부 지표로 구성된 이 위험성 체계는 투명성·책무성·공정성·통제성·안전성이란 AI 윤리 원칙과 긴밀히 연결되어 정책·입법·산업·기술 가이드라인에 직접 활용될 수 있도록 설계되었다. AI 로봇이 인간의 편의를 넘어 문명 구조를 바꾸고 있는 시대, 안전은 선택이 아니라 공존의 조건이다. 우리가 마주할 미래를 예측하고 대비하기 위한 실질적 기준을 제시하는 책이다.
200자평
AI 로봇이 낳는 권리·재산·물리적·사회적 위험을 체계적으로 분류하고, 이를 측정할 수 있는 지표(11개 항목, 52개 지표)를 제시한다. 기술·윤리·정책을 아우르며 AI 로봇 시대의 공존 조건을 정밀하게 해설한다. AI총서. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
송현경
현재 서울특별시경찰청 정보화운영계에서 근무 중인 경찰공무원(2008∼)이며, 동국대학교 사법대학에서 정보보호개론 교수(2024)를 겸직했다. 한국외국어대학교 교육대학원에서 상담심리학과 석사학위 및 정교사 2급 자격을 취득했고(2016), 성균관대학교 일반대학원에서 컴퓨터교육학 박사학위(2024)를 취득했다. 청와대 대통령실 총무비서실에서 근무한 경력이 있으며(2012∼2016), 사이버 안전을 위해 학생용 사이버불링 표준강의안 및 성인 대상 사이버불링 표준강의안을 제작했으며, 국민 대상으로 사이버범죄 예방 강사로 강의 활동을 했다(2016~2019). 국제인공지능윤리협회(IAAE) AI 리더스포럼 정회원으로 AI안전윤리인증 선임심사원 및 디지털 윤리 강사이며(2024~), 정보통신산업진흥원(NIPA)의 평가 위원이다(2024~). 주요 연구로는 “학교폭력 예방을 위한 데이터 수집 분류 모형과 구성요소에 관한 연구”(2023), “AI 로봇의 위험성 예방을 위한 측정지표에 관한 연구”(2023), “AI 로봇의 위험성 유형별 측정지표 개발”(2024), “AI 로봇의 위험성 유형별 측정지표와 인공지능 윤리원칙 간의 관계성에 관한 연구”(2025) 등 KCI 학술지에 게재된 논문 4편이 있다.
차례
AI 로봇 위험성 측정 지표의 필요성
01 AI 로봇 발전사
02 AI 로봇 정의
03 AI 로봇의 인간 신체 위협
04 AI 로봇의 인간 권리 침해
05 AI 로봇의 재산상 손해 유발
06 AI 로봇의 사회적 문제
07 AI 윤리 원칙과 로봇 윤리
08 AI 로봇의 위험성 측정 지표 개발
09 AI 윤리 원칙과의 관계성
10 AI 로봇 위험성 측정 지표 활용 방안
책속으로
아이로봇이라는 공상과학 영화에서 보던, 음식을 만들고 심부름 등 가사 도우미 역할을 하는 로봇이 현실에서도 나타났다. 우리에게 로봇이란 더 이상 영화에서만 보던 존재가 아니다. 최근에는 재활이나 일상 보조 역할을 하기 위해 인간 신체에 착용하는 웨어러블 로봇이 개발되었다. 중국에서는 휴머노이드 로봇이 마라톤 대회에 참가해 완주했다. 효과적으로 병을 치료하기 위해 액체로 된 체내용 로봇도 개발이 한창이다.
-01_“AI 로봇 발전사” 중에서
앞으로 휴머노이드와 함께 사는 미래 사회에서는 휴머노이드로 인한 여러 가지 위험 상황과 윤리적 문제가 일상적으로 일어날 수 있다. 이 경우, 휴머노이드를 구매한 인간에게 형사에 대한 상해 또는 과실치상의 책임을 물어야 하는지, 휴머노이드를 제작하고 판매한 제조사에게 배상 책임을 물어야 하는지에 대한 논란이 생길 것이라는 것은 충분히 예상되는 시나리오다.
-03_“AI 로봇의 인간 신체 위협” 중에서
최근 알파고 개발자는 AI 기술이 잘못 사용될 가능성을 우려한다며 악의적인 사용자가 이 기술을 해로운 목적으로 전용할 수 있다고 우려했다. 또한 인간 수준의 지능을 갖춘 AI를 통제할 안전장치가 부재할 가능성을 매우 위험하다고 했다. AI 로봇은 필요한 데이터를 직접 수집해서 학습하고 자율적으로 판단할 수 있기 때문에 프로그래밍한 대로 행동하지 않을 수 있으며, 인간의 명령이나 예측에서 벗어나는 말을 하기도 한다.
-06_“AI 로봇의 사회적 문제” 중에서
AI 로봇의 위험성 유형별 측정 지표가 법·제도·정책 등 범용적으로 활용 가치가 있으려면 국제 사회에서 통용되는 AI 윤리 원칙과 관계성 연구는 필연적이다. 이를 위해 표준화된 AI 윤리 원칙을 찾는 것은 매우 중요하다. AI 로봇을 안전하게 상용화하기 위해서는 기획·개발하는 단계부터 위험성을 예방하기 위한 제도적 장치가 있어야 하고, 기술 매뉴얼이나 윤리 점검 지표 등 사회적으로 허용 가능한 가이드라인이 필요하다.
-09_“AI 윤리 원칙과의 관계성” 중에서