책소개
신뢰 가능한 AI를 위한 원칙과 길
AI는 삶과 산업 전반을 바꾸지만, 신뢰 없이는 혁신도 지속될 수 없다. 이 책은 영화 속 상상에서 대화형 AI까지 이어진 기술의 진화를 짚고, 편향·불투명성·할루시네이션·책임소재 같은 핵심 위험을 체계적으로 정리한다. EU AI Act, OECD·UNESCO 원칙 등 국제 기준을 비교하고, 데이터 품질 관리, 인간 감독, 설명 가능성, 안전 설계의 실천 방안을 제시한다. 또한 채용·금융·의료·교육 등 고위험 영역의 사례를 통해 윤리와 안전이 왜 비즈니스 경쟁력과 사회적 신뢰의 조건인지 보여준다. 규제와 제도만으로는 충분하지 않다. 시민의 ‘이해하고 질문할 권리’를 키우는 AI 리터러시와 기업·정부·학계·시민사회의 협력 거버넌스를 결합해 ‘책임 있는 AI’로 가는 로드맵을 제안한다. 독자는 기술의 성능을 넘어 가치와 규범의 선택이 AI의 방향을 결정한다는 사실을 확인하게 된다. 실무자는 거버넌스 점검표와 체크리스트로 현장을 개선하고, 정책 담당자는 위험 기반 규제와 집행 체계를 설계할 수 있다. 교육자는 수업과 연수를 통해 시민 리터러시를 강화한다.
			
		
		
							 
			200자평
AI의 혁신은 윤리와 안전이 뒷받침될 때 지속된다. 이 책은 편향·불투명성·책임소재 등 핵심 위험을 짚고, EU AI Act와 OECD·UNESCO 원칙을 비교하여 데이터 품질·설명 가능성·인간 감독 등 실천 해법을 제시한다. 시민 리터러시와 협력 거버넌스로 신뢰 가능한 AI를 설계한다. 고위험 영역 사례와 체크리스트로 실천을 돕는다. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
			
				
		
							 
			지은이
방준성
광주과학기술원(GIST)에서 공학박사 학위(2013)를 취득하였다. 현재 ㈜와이매틱스의 CEO/대표이사(2023~), 과학기술연합대학원대학교(UST)의 교수(2016~), 한국전자통신연구원(ETRI)의 책임연구원(2013~)으로서 산·학·연 전반에 걸친 폭넓은 경력을 보유하고 있다. 연구개발 분야는 광·무선 통신 시스템 및 네트워크, 모바일 증강현실(AR), 가상현실(VR), 스마트 시티, 메타버스, 음성 대화형 봇, 인공지능(AI) 윤리, AI 추론 및 의사결정, 데이터 스페이스 등으로 확장되어 있다. 공학 분야뿐 아니라 인문·사회 분야까지 연구 영역을 넓혀 지금까지 국내외에 100여 편 이상의 논문을 발표하였다. 미래학회 부회장(2025~), 대전과총 인공지능분과 부회장(2024~), 대덕클럽 이사(2024~), 한국국토교통데이터진흥협회 이사(2024~) 등을 맡고 있다. JTC1 SC41/WG10, TTA PG423 등 표준화 활동에도 참여하고 있다. 저서로 국내에서는 『시그널 2024』(2023), 『시그널 2025』(2024) 등의 출간에 참여하였으며, 국외에서는 『Innovation in Language Learning and Teaching: The Case of Korea』(2025, Palgrave Macmillan) 등의 북 챕터(Book Chapter) 집필자로 참여하였다.
			
				
		
				
		
				
		
						
		
				
		
				
		
							 
			차례
인공지능의 윤리 원칙과 안전 기준  
01 인공지능 윤리에 대한 질문  
02 편향성과 공정성  
03 투명성과 설명 가능성  
04 초개인화의 편의성과 리스크  
05 인간과 인공지능의 공존  
06 의사결정과 책임  
07 사회적 가치와 다양성  
08 기술 혁신과 법적 규제  
09 인공지능 윤리 교육  
10 윤리적 인공지능의 실현
			
		
		
				
		
							 
			책속으로
AI 윤리에 대한 이해 부족은 ‘설명받을 권리’, ‘결정에 이의를 제기할 권리’, ‘개인의 정보를 보호받을 권리’와 같은 개인의 권리 행사에서의 격차로 이어질 수 있다. AI의 판단 결과가 사회 시스템에 영향을 직접 주는 세상에서는 AI 윤리와 정보에 대한 이해력이 법적, 경제적, 사회적 격차로 이어질 수 있다. 
-01_“인공지능 윤리에 대한 질문” 중에서
투명성과 설명 가능성을 확보하는 것은 AI가 안전하고 신뢰할 만한 방향으로 발전하기 위해 반드시 해결해야 할 과제다. 모든 상황에서 완전한 설명 가능성을 실현하는 것은 현실적으로 어렵다. 이에 대한 대안으로 EU의 ‘AI 법(AI Act)’에서는 고위험 AI 시스템에 먼저 투명성과 설명 가능성의 법적 요구를 부과하고 있다. 
-03_“투명성과 설명 가능성” 중에서
피지컬 AI(Physical AI)와 같은 물리적 인터랙션 능력도 공존의 방식에 영향을 줄 것이다. 피지컬 AI는 언어, 시각, 행동 등 정보를 통합 처리하고 센서와 모터 등의 기계 장치를 사용하여 인간과 인간이 존재하는 실제 공간에서 실시간 반응을 가능하게 한다. 이를 통해, 인간과 AI의 공존을 물리 세계에서 인터랙션이 가능하도록 하여 새로운 차원으로 끌어올리고 있다.
-05_“인간과 인공지능의 공존” 중에서
예전에는 폭력성과 성적 표현을 중심으로 콘텐츠를 차단했지만, 최근에는 정신 건강, 성소수자 표현, 사회적 포용성(Inclusiveness) 같은 가치가 새롭게 고려되기 시작했다. YouTube나 TikTok은 최근 몇 년간 ‘사회적 해악’에 대한 새로운 정의를 반영하여 알고리즘을 수정하고 있으며, 이는 콘텐츠 필터링이 단순히 법적 기준을 따르는 것을 넘어서, 가치 정렬이 실시간으로 반영되는 복잡한 체계임을 보여준다.
-07_“사회적 가치와 다양성” 중에서