책소개
공정한 AI를 향한 첫걸음
인공지능은 스마트폰, 자율주행, 의료, 금융 등 우리 삶의 거의 모든 영역을 혁신적으로 변화시키고 있다. 하지만 이 기술이 과연 모두에게 평등한 기회를 제공하고 있는가? 보이지 않는 편향을 강화하고 있지는 않은가?
공정성과 신뢰성, AI 설계의 핵심 과제
이 책은 AI가 단순히 삶의 편의를 증대시키는 도구를 넘어, 개인의 기회를 제한하고 사회 불평등을 심화할 수 있는 위험성을 날카롭게 짚는다. 실제 사례와 분석을 통해 AI의 편향이 어떻게 사회 구조 속 차별을 재생산하는지 설명하며, 공정성과 신뢰성이 왜 AI 설계의 핵심 과제가 되어야 하는지 다층적으로 조망한다.
우리 곁의 편향 사례
기술 개선은 물론, 제도적 보완과 사회적 합의가 병행되어야 한다는 점에서 AI는 이제 사회 전체의 협력과 통찰을 필요로 한다. 이 책에서는 트위터 사진 크롭 알고리즘, 한국의 AI 챗봇 이루다 사례 등 일상에서 발생한 AI 편향의 사례를 분석하며, 의료와 금융 등 분야별 대응 방안도 함께 소개한다.
기술을 넘어, 더 나은 사회를 위한 통찰
기술의 눈부신 진보 이면에 존재하는 사회적 질문을 다시금 되새기게 함으로써 AI 시대를 살아가는 모두에게 필요한 통찰을 담고 있는 이 책은, 공정한 기술과 책임 있는 사회를 함께 고민하도록 이끄는 든든한 안내서가 될 것이다.
200자평
AI는 스마트폰, 자율주행, 의료, 금융 등 우리의 삶 전반을 혁신적으로 변화시키고 있다. 그러나 이 기술이 공정성을 해치고 기존의 사회적 편견을 강화한다면 어떻게 될까? 이 책은 바로 그 질문에서 출발한다. AI의 편향이 개인의 기회를 제한하고 사회 불평등을 심화하는 과정을 다양한 사례와 분석을 통해 짚어 내며, 왜 공정성과 신뢰성이 AI 시스템 설계의 핵심 과제가 되어야 하는지 설명한다. 기술을 넘어 사회 전반을 관통하는 문제의식과 성찰을 담은 이 책은 AI 시대를 살아가는 모두에게 중요한 통찰을 제공한다.
지은이
박규동
서울시립대학교 정경대학 행정학과 조교수로 근무 중이다. 미국 콜로라도대학교에서 정책이론을 전공하고 행정학 박사 학위를 받았다. “형사사법 절차상 인공지능(AI)시스템 도입의 주요 논점”, “자동안면인식(AFR)기술 규제 방안 연구”, “형사정책 시스템 알고리즘 구축 과정에서의 편향성”, “AI 시스템의 위험 완화를 위한 정책적 접근방안 연구” 등 다수의 논문을 게재했으며 전략적 기획과 성과관리, 정책평가론을 저술했다. 대학에서 인문사회과학 전공자를 위한 데이터 분석, 머신러닝, 인공지능 알고리즘을 강의하고 있으며, 다양한 측면에서 발생하는 인공지능의 편향 문제를 해결하는 연구에 관심이 있다.
김근혜
고려대학교 정보보호연구원 연구교수로 재직 중이다. 고려대학교 정보보호대학원에서 사이버보안 정책을 전공해 공학 박사 학위를 받았다. 2019년부터 한국연구재단 지원으로 “AI 알고리즘 서비스의 공정성 개선”을 주제로 다수의 연구 과제를 수행했다. AI 영향 평가, AI 조달, AI 규제 등 공공 분야의 AI 정책 관련 다수의 논문을 발표했으며, AI 위험 관리 거버넌스 분야에서 다방면으로 연구 및 자문 활동을 하고 있다.
차례
AI의 공정과 편향이 왜 중요한가?
01 공정과 편향이란 무엇인가?
02 AI 시스템에서 편향은 왜 발생하는가?
03 데이터 편향
04 알고리즘 편향
05 사회적 편향
06 AI 편향 사례와 편향 완화 사례
07 공정한 AI 설계의 원칙
08 AI 공정에 대한 법적, 규제적 접근
09 편향 해결을 위한 기술적 접근
10 공정한 AI를 위한 미래 비전
책속으로
AI 편향 완화 사례는 단순히 기술적 문제를 해결하는 데 그치지 않고, 사회적 불평등과 고정 관념을 재생산하지 않는 시스템을 설계하기 위한 중요한 교훈을 제공한다. 특히 데이터의 다양성과 대표성을 확보하고 알고리즘 설계 과정에서 공정성을 고려하며 지속적인 모니터링과 개선을 통해 AI가 어떻게 더 나은 결과를 낼 수 있는지 보여 준다.
-06_“AI 편향 사례와 편향 완화 사례” 중에서
공정한 AI 설계는 기술적, 윤리적, 사회적 차원의 복합적인 노력을 요구한다. 글로벌 AI 윤리 지침은 신뢰할 수 있는 AI를 구현하기 위한 기본 원칙을 제공하며, 데이터와 알고리즘의 윤리적 사용은 공정성을 확보하기 위한 필수 기반을 형성한다. 기술적 기법과 조직적 접근을 결합한 설계 방법론은 AI 시스템이 다양한 사회적 맥락에서 공정성을 실현하도록 돕는 중요한 도구로 작용한다.
-07_“공정한 AI 설계의 원칙” 중에서
AI 기술이 공공 기관은 물론 산업 전반에 광범위하게 적용되고 사회의 다양한 측면에 영향을 미칠 가능성이 커지면서 AI 규제는 점점 더 중요하고 복잡한 문제가 되었다. AI 규제는 AI 연구 초기부터 시작되어 오랜 역사를 지닌다. AI 초기에는 AI 개발과 사용을 관장하는 구체적인 규정이 거의 없었으며, 대부분 해당 분야를 발전시키고 AI의 잠재적 응용 분야를 탐색하는 데 중점을 두었다. 그러나 최근 몇 년 동안 AI가 더욱 보편화되고 의존도가 높아짐에 따라 AI의 잠재적 영향과 위험을 이해하고 관리하는 데 많은 관심이 집중되고 있다. 또한 책임감 있고 신뢰할 수 있는 방식으로 AI 기술이 개발 및 사용되도록 하기 위한 규제 감독의 필요성에 대한 인식도 높아지고 있다.
-08_“AI 공정에 대한 법적, 규제적 접근” 중에서