책소개
인공지능은 왜 편향되는가
데이터 기반의 현대 인공지능은 기획, 설계, 학습, 배포의 전 단계에서 인간의 선택과 사회적 조건에 의해 다양한 편향을 내포한다. 인공지능 편향의 개념과 발생 원리를 기계학습 구조 속에서 설명하고, 단순한 데이터 불균형을 넘어 윤리적·사회적 차원의 구조적 차별이 어떻게 알고리즘을 통해 증폭되는지를 짚는다. 나아가 블랙박스 구조 속 편향 탐지의 어려움, 공정성 기준의 충돌, 의도하지 않은 차별 효과 등 현재 인공지능이 직면한 핵심 문제를 구체적 사례와 함께 제시한다.
인공지능 개발자뿐 아니라 정책 입안자, 일반 사용자 모두가 편향을 인식하고 대응해야 할 이유를 설명하며, 데이터 전처리부터 공정성 기준의 적용, 편향 완화 기술까지 총망라해 AI 윤리 실천의 길을 제시한다. 인간의 편향이 만든 AI, 그 편향을 다룰 책임도 결국 인간에게 있다는 사실을 강조한다.
200자평
현대 인공지능은 데이터 학습 과정에서 인간의 편향을 내포한다. AI 편향의 개념과 원인을 밝히고 윤리적·사회적 영향과 완화 방안을 제시한다.
지은이
김효은
국립한밭대학교 인문교양학부 교수이며 과학철학자, 실험철학자다. 국내 최초로 인공지능 윤리 교과를 개설했고, IEEE(국제전기전자공학자협회) 인공지능 윤리 지침 위원으로 참여했다. 철학과 인공지능 학사, 세인트루이스 소재 워싱턴대학교의 철학ᐨ신경과학ᐨ심리학 프로그램(PNP program) 인지과학 석사, 이화여자대학교에서 의식 연구로 박사를 마쳤고, 뉴욕대학교와 듀크대학교, 매쿼리대학교에서 객원 학자를 지내면서 분석철학을 전산 방법론과 연계하는 연구를 모색해 왔다. 딥러닝을 이용한 도덕 판단 유형 예측 시스템을 특허 등록(2022)했으며, 가치 개념들의 디지털 구현 및 현실 적용에 관심을 두고 있다. 최근 연구로는 재범 예측 시스템 데이터, MLforKids 등 디지털 도구를 활용한 교육 방법 개발, 생성형 AI 활용 교육 가이드라인 개발 등이 있다. 주요 저서는 『인공지능과 윤리』(2021), 『인지과학 실험실』(2021) 등이다.
차례
인공지능에서 편향의 위치
01 인공지능 편향 정책
02 인공지능 편향의 원인
03 보호 속성과 인공지능 공정성
04 인공지능 공정성의 유형
05 공정성 기준들 간 상충
06 인공지능 구성 단계에서의 편향
07 편향 제거가 아닌 완화
08 인공지능 편향 완화 기술
09 정확도-공정성 트레이드오프
10 편향 완화 플랫폼과 인간 판단
책속으로
인공지능 윤리 및 신뢰성의 다양한 점검 항목 각각에 대해 ‘표준(standard)’이 여러 기관에서 개발되고 있다. ‘표준’은 개발자와 조직이 보다 책임감 있고 투명한 인공지능 시스템을 개발하고 배포할 때 가이드라인과 우수 사례 홍보를 포함하는 모범 사례로 역할을 한다. 대표적으로, IEEE(국제전기전자공학자협회)에서는 다양한 신뢰성 항목들에 대한 표준들을 개발하고 있으며, 인공지능 편향성에 대해서는 ‘IEEE P7003: 알고리즘 편향 고려 사항 표준(IEEE 2025)’이라는 이름으로 보고서 작업을 진행 중이다. 이 표준은 IEEE 자율 및 지능형 시스템 윤리 글로벌 이니셔티브의 일부이며 알고리즘 의사 결정 시스템에서 의도치 않은, 정당화되지 않은, 부적절한 편향을 식별하고 완화하는 데 개인이나 조직에 개발 프레임워크를 제공하려는 것이다.
-01_“인공지능 편향 정책” 중에서
통계적 공정성이란 모든 집단이 동일한 비율의 결과를 가지는 상태로, 결과의 수학적 동등성에 초점을 맞추는 종류의 공정성을 의미한다. 예컨대 대출 승인에서 모든 인종 집단이 동일한 비율로 승인을 받아야 한다는 기준을 세우는 경우다. 이러한 기준은 개인의 자격이나 능력을 고려하지 않고 단순히 집단 간 비율만을 맞추기 때문에 개인의 특수 상황을 고려하기 어렵다. 이러한 이유로 통계적 공정성은 다른 의미의 불공정성, 즉 ‘형평성 (equity)’의 관점에서는 불공정하다.
-03_“보호 속성과 인공지능 공정성” 중에서
그러나 주어진 시간과 재원은 한정되어 있기에 다양성과 데이터의 양을 무조건 늘리는 것은 현실적이지는 않다. 따라서 샘플의 ‘대표성’ 또한 중요하다. 의도된 인종 차별은 아니지만 인공지능이 학습하는 데이터는 그 양에서 특정 집단, 특정 속성에 치중될 가능성이 높다. 이 편향은 인공지능이어서 가지게 되는 편향이라기보다는 인간 사회가 이미 가지고 있는 데이터의 불균형이 반영된 결과다. 데이터를 수집하고 기술 구축 및 구현을 담당하는 팀에 다양성이 부족할수록 부정적인 결과의 가능성이 커진다. 예를 들어 특정 집단과 관련한 데이터가 의도치 않게 배제되면, 데이터가 모델 학습에 사용되는 방식 때문에 궁극적으로 데이터 품질에 영향을 주게 된다.
-06_“인공지능 구성 단계에서의 편향” 중에서
사후 처리 방법 중 하나인 임곗값(threshold) 조정은 집단별로 서로 다른 결정 임곗값을 적용하여 공정성을 향상하는 방법이다. 예컨대 균등 기회 기준을 사용할 경우, 각 집단의 진양성율을 동일하게 맞추는 것을 목표로 할 수 있다. 또 인구 통계학적 동등성 기준을 선택해 사용할 경우, 각 집단의 긍정 예측 비율을 동일하게 맞추도록 할 수 있다. 동등한 가능성 기준을 선택할 경우, 진양성율과 위양성율을 모두 동일하게 맞추도록 하여 편향을 조정할 수 있다. 구체적으로 특권 혹은 비보호 집단(privileged group)(예: 고소득층)의 임곗값이 0.5라면, 보호 집단(예: 저소득층)의 임곗값은 0.3으로 낮춰서 진양성율을 맞출 수 있다. 보호 집단의 대출 승인 가능성을 높이기 위한 조치다. 이렇게 임곗값을 차등 적용하면, 보호 집단의 경우 신용 점수가 0.3 이상이면 대출이 승인되므로, 기존에 0.5 이상이어야 했을 때보다 더 많은 사람들이 대출 기회를 얻게 된다. 이를 통해 두 집단 간의 대출 승인율 격차가 줄어들어 공정성이 개선된다.
-09_“정확도ᐨ공정성 트레이드오프” 중에서