책소개
AI는 인간의 편견을 제거한 공정한 도구로 여겨졌지만, 실제로는 기존의 불평등을 학습하고 재생산하는 새로운 메커니즘이 되고 있다. 이 책은 AI 시대의 평등을 둘러싼 낙관과 현실 사이의 간극을 비판적으로 들여다본다. AI 기술의 범람 속에 평등의 가치를 구현하기 위한 정책, 기술, 시민 사회의 역할을 모색하며 포용적이고 정의로운 디지털 사회를 향한 실천적 비전을 제시한다.
자동화된 불공정의 구조
알고리즘은 복지, 고용, 교육 등 다양한 영역에서 사회적 약자를 구조적으로 배제할 수 있다. 기술적 판단은 객관성을 표방하지만 편향된 데이터와 설계는 차별을 정당화하는 수단이 되기 쉽다. ‘디지털 빈민원’과 같은 개념은 기술을 통한 통제의 현실을 드러낸다.
데이터 권력과 디지털 계급 사회
AI 기술은 일부 기업과 국가에 집중되며 데이터 자본의 독점이 새로운 불평등을 낳는다. 알고리즘 점수화와 감시 체제는 시민을 계층화하고 자기실현적 예언처럼 격차를 고착화할 수 있다. AI가 민주주의와 평등을 위협하는 도구가 될지, 인류 전체의 번영에 기여하는 도구가 될지는 지금 우리의 선택에 달려 있다.
다원적 평등과 포용적 설계
AI 시대의 평등은 자원의 분배를 넘어 역량, 인정, 참여의 평등을 포함해야 한다. 이 책은 기술 설계부터 정책 입안에 이르기까지 다양한 집단의 관점이 반영되어야 하며, 알고리즘의 투명성과 책임성을 제도적으로 확보할 필요가 있음을 제시한다.
200자평
AI는 공정성과 효율성을 약속했지만 오히려 기존의 불평등을 강화할 수 있다는 우려가 크다. 《AI 시대의 평등》은 기술에 내재한 편향과 데이터 권력 집중의 문제를 짚고, 포용적이고 정의로운 AI 설계를 위한 새로운 평등의 기준을 제시한다.
지은이
유지연
유지연
상명대학교 휴먼지능정보공학전공 교수다. 고려대학교에서 정보공학 박사 학위를 받았으며, 정보통신정책연구원(KISDI)에서 부연구위원으로 활동했다. 디지털 기술과 사회의 접점을 깊이 통찰하며 기술의 복합적 위험 구조를 분석하고 공학적 해법을 정책으로 연결하는 데 기여해 온 공학자다. 디지털 사회의 전략적 대응과 위험 관리에 관해 25년간 연구해 왔으며, 최근에는 인공지능의 신뢰성과 국가적 차원의 안전성 확보에 주목하고 있다. 연구 경력 초기에는 정부출연연구기관에서 초연결 사회의 디지털 하이브리드 위험 패러다임에 관한 기술 전략을 수립하고 국가 미래 전략 시스템 연구를 주도했다. 이 과정에서 디지털 기술의 공학적 설계와 사회적 응용 간의 균형점을 찾아내며 혁신적인 접근법으로 주목받았다. 이후 학계로 진출해 디지털 하이브리드 위험 관리 이론을 체계화했으며 점차 인공지능 시스템의 기술적 신뢰성, 공급망 보안 강화를 위한 엔지니어링 프레임워크 연구로 영역을 확장했다. 한국인터넷윤리학회 회장으로 활동하며 다학제 간 협업을 통해 디지털 기술의 복합적 영향력을 다각도로 분석해 왔다. 공학적 기여로 기술 정책 분야에 새로운 패러다임을 제시했다는 평가를 받고 있다. 저서로는 《20개의 핵심 개념으로 읽는 디지털 기술 사회》(2022), 《디지털 사회 기본 가치》(2023) 등이 있으며, 국내외 학술지와 매체에 100편 이상의 연구 논문과 저술을 발표했다.
차례
평등 역설: AI는 정말 평등을 가져다줄 것인가
01 AI 시대의 다원적 평등
02 AI 불평등의 구조적 특성과 정의
03 인지 격차와 AI 자본의 집중화
04 알고리즘 편향과 공정성 환상
05 디지털 빈곤과 AI 스코어링 사회
06 노동 시장의 AI 혁명과 계층 재편
07 알고리즘 권력과 디지털 민주주의의 과제
08 AI 리터러시와 교육 기회의 평등화
09 포용적 AI 설계: 기술적 접근과 공유지 원리
10 AI 거버넌스와 평등한 미래 사회 설계
책속으로
AI 불평등은 기술적 진보와 사회적 공정성 사이의 긴장을 보여 주는 복합적 현상이다. 자동화된 불평등의 메커니즘을 통해 기존 사회적 편향이 기술 시스템에 내재화되고 증폭되며 접근성, 활용성, 주체성의 다차원에서 새로운 형태의 격차가 나타나고 있다. 이러한 AI 불평등을 해결하기 위해서는 기술적 해법과 사회적 개입이 병행되어야 한다. 알고리즘의 투명성과 책임성을 높이고 포용적 설계 원칙을 적용하며 AI 리터러시 교육을 확대하고, 시민 사회의 참여를 보장하는 거버넌스 체계를 구축해야 한다. 무엇보다 AI 불평등 문제는 기술 그 자체의 문제가 아니라 기술을 둘러싼 사회적 맥락과 권력 구조의 문제라는 인식이 필요하다.
-02_“AI 불평등의 구조적 특성과 정의” 중에서
알고리즘 공정성에 대한 막연한 믿음은 환상에 불과하며, 오히려 이러한 환상이 기존의 불평등 구조를 보이지 않게 만들 위험이 있다. 공정해 보이는 수치와 모델 뒤에 가려진 편향의 메커니즘을 들춰내지 않는다면 우리는 알고리즘이라는 거울에 비친 사회의 편견을 제대로 인식하지 못한 채, “숫자가 말해 주니 어쩔 수 없다”는 식의 체념에 빠질 수 있다. 따라서 공정성 환상을 넘어 진정한 의미의 공정성을 모색하려면 기술에 내재한 가치 판단을 드러내고 비판적으로 검토하는 노력이 필요하다.
-04_“알고리즘 편향과 공정성 환상” 중에서
실제로 유뱅크스는 복지 행정에 도입된 알고리즘 시스템이 빈곤층을 관리하고 제재하는 “디지털 빈곤원”의 역할을 함으로써 가난한 이들을 더욱 투명 인간 취급한다고 비판한다. 요컨대 기술이 약속했던 평등은 구현되지 않고 오히려 평등의 역설이라고 할 만큼 알고리즘이 불평등을 구조화 및 심화하고 있다.
-05_“디지털 빈곤과 AI 스코어링 사회” 중에서