책소개
AI 시대의 문을 여는 아이들, 도덕 교육의 새로운 질문
인공지능은 더 이상 미래의 기술이 아니다. 인간의 언어와 판단을 학습하고, 창작과 선택을 수행하며 일상의 가장 깊은 영역까지 스며들고 있다. 이 과정에서 우리는 기술의 편의성만큼이나 윤리적 질문과 마주한다. 이러한 변화의 한가운데에서 성장하는 아이들이 어떤 도덕적 기준과 성찰의 힘을 길러야 하는지를 묻는다. AI는 인간을 닮아서가 아니라 인간과 전혀 다른 방식으로 사고하고 진화할 수 있기에 두려움을 낳는다. 동시에 인간의 정신과 도덕성을 다시 묻게 하는 거울이 되기도 한다. 저자는 초등 도덕 교육의 관점에서 AI 윤리, AI 리터러시, 책임과 편향, 설명 가능성, 안전과 권리 문제를 체계적으로 정리한다. 특히 2022 개정 초등 도덕과 교육과정을 토대로 실제 수업에 적용할 수 있는 사례와 활동을 제시하며, 아이들이 기술을 비판적으로 이해하고 윤리적으로 활용하는 시민으로 성장하도록 돕는다. AI 시대를 살아갈 아이들에게 필요한 것은 기술 숙련이 아니라 가치 판단의 힘임을 분명히 보여 준다.
200자평
AI가 일상이 된 시대에 초등 도덕 교육이 어떤 역할을 해야 하는지를 다룬다. AI 윤리와 리터러시를 중심으로 편향, 책임, 설명 가능성 등 핵심 쟁점을 풀어내며, 교육과정에 기반한 실제 수업 사례를 제시한다. AI 시대 시민 교육의 출발점을 제안한다. AI문고. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
권누리
서울서래초등학교 교사다. 경인교육대학교를 졸업하고 서울대학교 윤리교육과에서 교육학 석사 및 박사학위를 취득하였다. 저서로는 《초등 도덕과 교재 연구 및 지도법》(공저, 2025)이 있으며, 주요 논문으로는 “인공지능 동작 원리에 기초한 초등 도덕과 인공지능 윤리교육 방안 연구: 데이터 편향성 문제를 중심으로”(2024), “초등 도덕과에서의 인공지능윤리교육 방안 연구: 인공적 도덕 행위자(AMA) 논의를 중심으로”(2024), “반두라의 자기규제 메커니즘에서 자기효능감의 기능과 도덕교육적 함의”(2025), “공감의 심리 기제에서 상상력의 기능과 도덕교육적 함의: 흄의 상상력 이론을 중심으로”(2024) 등이 있다.
차례
AI 시대의 문을 여는 아이들
01 AI 윤리와 초등 도덕 교육의 변화
02 초등학생도 알 수 있는 AI
03 인공적 도덕 행위자(AMA)로서의 AI
04 AI의 동작 원리
05 AI의 편향성 문제
06 투명한 AI
07 안전한 AI 만들기
08 AI의 윤리적 책임
09 초등학생이 알아야 할 AI 윤리 원칙
10 초등 AI 윤리 교육 프로그램
책속으로
AI 윤리 교육에 대한 시대적 요구에 부응하여, 2022 초등 도덕과 교육과정에는 AI 관련 내용을 명시함으로써 그 중요성을 강조하고 있다. 구체적으로는 5∼6학년군의 ‘타인과의 관계’ 영역에서 AI 관련 내용을 찾아볼 수 있는데, 이때 ‘타인과의 관계’ 영역은 가까운 이웃부터 먼 낯선 이들까지, 다양한 인간관계에서 발생하는 도덕적 문제들을 다루는 영역이다. 일상의 친밀한 관계뿐 아니라 비일상적 맥락에서 마주치는 타자 역시 학습의 대상이 된다. (…) AI와 관련된 내용이 ‘타인과의 관계’ 영역에서 등장하는 이유는 인공지능이 인간과 상호작용할 수 있는 기술이며, 주로 인간과의 관계에서 윤리적 문제들이 발생하기 때문이다.
-01_“AI 윤리와 초등 도덕 교육의 변화” 중에서
행위자(agent)는 행위의 주체를 의미하며, 전통적인 관점에서는 인간만을 행위자로 간주해 왔다. 그러나 최근에는 AI의 발달로 인해 행위자의 범위가 확장되고 있으며, 특히 인공 행위자(Artificial Agent, AA)라는 개념의 등장은 도덕적 상황에 관여할 수 있는 주체의 범위를 넓히고 있다. AA에 관한 중요한 쟁점 중 하나는 AA와 같은 인공적 행위자가 도덕적 행위자로 인정될 수 있는지에 대한 문제다.
-03_“인공적 도덕 행위자(AMA)로서의 AI” 중에서
2016년 AI 바둑 프로그램 ‘알파고(AlphaGo)’는 인간이라면 쉽게 상상할 수 없는 수를 두며 세계 최정상 기사들을 압도하였다. 당시 알파고가 보여 준 전략적 수순은 인간의 직관과 완전히 다른 방식으로 전개되어 “기계가 창의성을 가질 수 있는가”와 같은 논쟁을 불러일으키기도 했다. 그러나 더욱 주목할 점은 그 놀라운 수들을 만들어 낸 알고리즘의 내부 작동 원리를 개발자들조차 명확히 설명하지 못했다는 사실이다. 알파고는 방대한 데이터를 학습하고 스스로 대국을 반복하면서 확률적으로 최적의 선택을 찾았지만, 그 판단이 어떠한 연산과 기준을 거쳐 도출된 것인지는 인간이 완전히 파악할 수 없다. 이는 인공지능의 판단이 인간의 통제와 이해를 벗어난 영역에서 이루어질 수 있음을 보여 주는 사례로, AI 기술이 성능의 향상만큼이나 설명 가능성과 투명성을 갖추어야 하는 이유를 보여 준다.
-06_“투명한 AI” 중에서
인공물을 도덕적 행위의 대상으로 연장하는 것은 다양한 문제를 야기할 수 있다. 예컨대 ‘AI가 파괴적이거나 비도덕적인 행동을 했을 때 책임의 주체는 누가 되어야 하는가?’, ‘AI에게 적용될 수 있는 보편적인 원리, 규칙 등은 어떻게 제정할 것인가?’ 등의 새로운 문제들이 발생할 수 있기 때문이다. 또한 AI의 결정은 단일한 주체가 아닌, 여러 기술 요소와 설계자의 가치 판단이 복합적으로 얽혀 있기 때문에, 도덕적 판단 능력을 갖춘 AI를 구현하려면 공학적 설계뿐 아니라 윤리적·법적 관점까지 함께 고려되어야 한다. 이를 위해서는 AI의 설계 가능성과 사회적 영향, 그리고 그 한계에 대한 전문가 간의 지속적인 논의와 협의가 필요하다.
-09_“초등학생이 알아야 할 AI 윤리 원칙” 중에서