책소개
AI는 답을 준다, 그러나 결정은 질문에서 시작된다
같은 AI를 써도 결과가 다른 이유는 기술이 아니라 ‘의사 결정의 구조’에 있다. 생성형 AI 시대에 개인과 조직이 기대만큼의 성과를 얻지 못하는 근본 원인을 파헤치며, 문제는 도구가 아니라 질문과 판단의 설계에 있음을 밝힌다. 허버트 사이먼의 ‘제한된 합리성’ 이론을 바탕으로, 인간이 어떻게 불완전한 정보 속에서 결정을 내리는지, 그리고 AI가 그 한계를 어떻게 보완할 수 있는지를 체계적으로 설명한다. 핵심은 인간-AI 협업의 방식이다. AI를 단순한 정답 생성기가 아닌 ‘조언자’로 활용하고, 인간이 기준을 설정하고 검증하는 구조를 설계할 때 의사 결정의 질은 비약적으로 향상된다. 이 책은 문제 정의, 맥락 설계, 질문 구조화, 답변 검증, 협업 구조 설계까지 의사 결정 전 과정을 단계별로 정리하며, 실무에서 바로 적용할 수 있는 지침을 제시한다. 또한 AI 의존이 장기적으로 판단력을 약화시킬 수 있는 역설과, 자동화·증강·변형이라는 세 가지 활용 방식의 전략적 선택 기준을 함께 다룬다. 결국 중요한 것은 AI를 얼마나 잘 쓰느냐가 아니라, 무엇을 물어보고 어떻게 판단하느냐다. 모든 사람이 의사 결정자가 된 시대, AI와 함께 더 나은 결정을 설계하는 실천적 기준을 제시하는 책이다.
200자평
같은 AI를 써도 결과가 다른 이유는 질문과 판단 구조에 있다. 인간-AI 협업의 원리를 바탕으로 문제 정의, 맥락 설계, 답변 검증까지 의사 결정 전 과정을 정리한다. 도구가 아니라 기준을 바꾸는, AI 시대 실무 의사 결정자의 핵심 가이드다. AI문고. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
이상석
영국 런던시티대학 베이즈 비지니스스쿨(Bayes Business School)에서 객원교수로 MBA 및 최고경영자 과정에서 데이터 분석과 LLM을 활용한 의사 결정을 주로 가르친다. 주요 연구 주제는 인간–AI 협업과 의사 결정 과정이며, 특히 판단자-조언자 시스템(Judge–Advisor System), 사회적 영향과 신뢰의 형성, 집단 의사 결정의 동학을 주제로, 인간과 AI가 함께 참여하는 조직 내 의사 결정이 어떻게 구조화되고 변화하는지를 이론적·실증적으로 분석하고 있다.
2021년 미국 듀크(Duke) 대학에서 데이터 사이언스 석사과정을 졸업하고, 스탠퍼드대학교(Stanford University) 컴퓨테이셔널 컬처 랩(Computational Culture Lab)에서 문화 적합성(Culture Fit)을 연구했다. 실리콘밸리 피플 애널리틱스 스타트업에서 데이터 사이언티스트로 근무하기도 했다. 국내 복귀 후 공공기관에서는 최초로 만들어진 HR 애널리틱스팀에서 HR 데이터 피플 사이언티스트로 활동하며 감정분류모델, 인재추천시스템, HR 데이터레이크(HR Data Lake) 등을 개발하여 특허 출원을 했고, 영국 London Text Analytics 컨퍼런스, AI Seoul Summit, HR AI 포럼에서 해당 주제를 발표하기도 했다. 저서로 《데이터 드리븐 리포트》(2023), 《피플 애널리스트가 온다》(2024, 공저)가 있다.
차례
같은 AI인데 왜 결과가 다를까?
01 AI보다 먼저 생각하라
02 맥락 없는 질문, 쓸모없는 답
03 탐색의 함정
04 도메인 지식의 부상
05 AI는 설명하지만, 설득은 인간의 몫
06 데이터 품질의 무게
07 인간 개입 지점을 설계하라
08 단일 AI vs 멀티 AI
09 AI로 사람의 행동을 시뮬레이션하다
10 실사례와 함께 하는 의사 결정
책속으로
AI에게 묻기 전에 먼저 생각하라. 나는 이 문제에 대해 무엇을 알고 있는가. 나의 초기 가설은 무엇인가. 이 두 질문을 거친 후에 AI의 조언을 구하면, AI는 첫 번째 의견 제공자가 아니라 검증 도구가 된다. 연봉 협상에서 배트나를 알고 있는 사람이 더 나은 결과를 얻듯이, AI 시대에도 먼저 생각하는 사람이 더 나은 판단을 내린다. AI가 답을 주지만, 질문의 방향과 판단의 기준은 여전히 사람의 몫이다.
-01_“AI보다 먼저 생각하라” 중에서
여러분도 이런 경험을 해 본 적이 있는가? 과거에는 정보가 부족해서 결정을 못 했다면 지금은 정보가 너무 많아서 결정을 못 한다. 예전보다 정보를 획득하고, 수집하는 데 소요되는 시간은 훨씬 빨라졌는데 왜 결정은 더 어려워졌을까. 더 찾아보면 더 나은 답이 있을 것 같은 느낌이 든다. 실제로 “한 번만 더” 검색해서 미세하게 더 나은 선택지를 발견한 경험이 있기에 이 느낌을 무시하기 어렵다. “한 번만 더 검색하면…”의 무한 루프에 빠진다. 우리는 언제 “충분하다”고 판단하고 행동으로 옮길 것인가.
-03_“탐색의 함정” 중에서
두 담당자의 차이는 LLM 활용 능력이 아니다. 편향의 존재를 인식하고 이를 의사 결정에 반영했느냐의 차이다. 편향을 인식한 의사 결정자는 AI의 답변을 출발점으로 삼되, 맥락에 맞게 검증하고 보정한다. 편향을 인식하지 못한 의사 결정자는 AI의 답변을 그대로 수용하여 맥락에 맞지 않는 결정을 내린다. 그러므로 LLM을 활용한 의사 결정에서 편향을 고려하려면 다음 질문을 던져야 한다. 첫째, 이 AI의 답변이 어떤 문화적 관점을 전제하고 있는가. 둘째, 내가 의사 결정을 내리는 맥락의 특성이 AI의 훈련 데이터에 충분히 반영되어 있는가. 셋째, AI가 제시하는 ‘보편적’ 해답이 실제로는 특정 문화권의 관점은 아닌가. 이 질문들에 답할 수 없다면 AI의 조언을 맹신해서는 안 된다. 추가 검증이 필요하다는 신호라고 볼 수 있다.
-06_“데이터 품질의 무게” 중에서
그러나 이 방법들에는 공통된 한계가 있다. 1000명 규모의 설문 조사를 수행하려면 수천만 원의 비용과 수주의 시간이 필요하다. 또한 윤리적 제약이 있는 설문조사도 있다. 허위 정보에 노출된 소비자가 어떻게 행동하는지, 위험한 의료 정보를 받은 환자가 어떤 선택을 하는지는 실제 사람에게 실험할 수 없다. 만약 AI로 수백, 수천 명의 가상 인물을 만들어 실험할 수 있다면 어떨까. 게임 〈심즈(The Sims)〉에서 가상 인물들이 자기만의 성격에 따라 행동하고 관계를 맺는 것처럼, AI가 ‘진짜 사람처럼’ 반응한다면 어떨까. 이것이 생성형 에이전트 시뮬레이션(Generative Agent Simulation)의 핵심 아이디어다.
-09_“AI로 사람의 행동을 시뮬레이션하다” 중에서