책소개
AI의 경쟁력은 ‘정확함’이 아니라 ‘신뢰’다
생성형 AI는 이제 실험 단계를 넘어 실제 업무의 중심으로 들어왔다. 그러나 기술의 화려한 발전과 달리, 현장에서 가장 먼저 부딪히는 질문은 단 하나다. “이 결과를 믿을 수 있는가?” 환각, 최신 정보의 부재, 보안과 정확성 사이의 딜레마는 AI 도입을 가로막는 결정적 장벽이다. 이러한 문제의식에서 출발해, 신뢰할 수 있는 AI를 설계하는 방법을 구체적으로 제시한다. LLM의 한계를 보완하기 위한 RAG의 등장과 그 진화를 따라가며, 단순 검색-생성 구조를 넘어 스스로 판단하고 검증하는 ‘에이전트 RAG’로의 전환을 설명한다. 이제 AI는 정보를 단순히 끌어오는 수준을 넘어, 검색 결과를 평가하고 재질문하며, 생성된 답변의 오류까지 점검하는 능동적 시스템으로 발전하고 있다. 특히 랭그래프를 중심으로 한 그래프형 워크플로는 AI를 블랙박스에서 벗어나게 한다. 어떤 데이터를 근거로 어떤 판단이 이루어졌는지 추적 가능해지면서, 설명 가능성과 운영 가능성이 동시에 확보된다. 이는 단순한 성능 개선이 아니라, 신뢰 가능한 AI 시스템을 구축하기 위한 핵심 조건이다. 이 책은 기술 설명을 넘어, 실제 조직에서 작동하는 AI를 어떻게 설계할 것인가에 대한 실무적 통찰을 제공한다. AI 경쟁의 핵심이 성능이 아니라 ‘신뢰’로 이동한 지금, 그 전환의 중심을 짚어낸다.
200자평
생성형 AI는 강력하지만, 신뢰 없이는 쓸 수 없다. 환각과 지식 단절 문제를 해결하는 RAG와, 이를 넘어선 에이전트 RAG 구조를 통해 신뢰 가능한 AI 설계 방법을 제시한다. 기업 현장에서 바로 적용 가능한 실무 중심의 안내서다. AI문고. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
정천수
삼성SDS AX센터에서 부장(Principal Consultant)으로 근무하며 다수의 AI 프로젝트 PM을 수행했다. 고려대학교 컴퓨터공학 석사, 국민대학교 경영정보시스템 박사 학위를 받았다. AI가 실제 일터와 삶에 어떻게 도움이 될 수 있는지를 지속적으로 연구해 왔으며, 기업 현장의 AI 적용 프로젝트를 이끌며 생성형 AI, 멀티에이전트 시스템, AI 챗봇, 업무 자동화 기술을 연구하고 실무에 적용해 왔으며, 관련 성과를 국내·외 학술지에 발표했다. 또 과학기술정보통신부, 고용노동부, 농림축산식품부 등 정부와 산업계의 AI 부문 평가 및 자문위원으로 활동했으며, 생성형 AI의 가능성을 현실로 구현하고 ‘사람과 함께 성장하는 AI’를 실현하기 위한 신뢰할 수 있는 AI 생태계 구축에 힘쓰고 있다.
차례
신뢰할 수 있는 생성형 AI로 가는 길
01 LLM의 딜레마
02 RAG의 기본 원리
03 어드밴스드 RAG의 등장
04 에이전트 RAG의 개념
05 랭그래프 메커니즘
06 에이전트 RAG 설계
07 신뢰성 확보 전략
08 엔터프라이즈 적용
09 에이전트 RAG 구현 실무
10 지식 확장형 AI의 미래와 진화 전략
책속으로
LLM의 학습은 방대한 텍스트를 압축하여 언어 구조를 익히는 과정이다. 이는 인간이 경험을 통해 세계를 이해하는 방식과는 다르다. 인간은 감각, 맥락, 논리적 추론을 통해 의미를 만들어 낸다. 그러나 LLM은 의미를 추론하지 않고 오히려 유사한 구성을 재구성한다. 따라서 LLM의 출력은 의미 이해의 결과가 아니라 통계적 근사치에 가깝다. 이러한 차이는 일상적인 대화에서는 드러나지 않는다. 그러나 전문 영역, 기업 의사 결정, 법률 해석, 의료 상담과 같이 정확성과 근거가 중요한 분야에서는 구조적 한계로 이어진다. 특히 기업 환경에서는 AI의 답변이 단순 참고가 아니라 실제 행동과 정책에 영향을 주기 때문에, “그럴듯함”과 “정확함”의 차이가 치명적이 된다.
-01_“LLM의 딜레마” 중에서
앞서 설명한 사례처럼, 이러한 어드밴스드 RAG의 공통적인 지향점(오류 수정, 적응적 선택, 반복/그래프 추론)을 실제 시스템 수준에서 구현하려면 복잡한 상태 관리, 분기 로직, 반복 루프를 체계적으로 제어할 수 있는 구조가 필요하다. 여기서 랭그래프 같은 그래프 기반 워크플로와 에이전트 개념이 핵심 역할을 한다. 이제 RAG는 단순한 데이터 조회를 넘어, 스스로 학습하고 추론하는 루프를 그리며 빠르게 발전하고 있다. 이러한 그래프를 활용한 설계 위에서 에이전트는 “답변 평가”, “질문 재작성”, “웹 검색 호출”, “RAG vs 웹 검색 선택” 등 특정 역할을 맡아 동작한다. 이는 다음 장에서 자세히 다룰 에이전트 RAG의 개념과 직접적으로 연결된다.
-03_“어드밴스드 RAG의 등장” 중에서
일반적인 RAG에서는 먼저 벡터 데이터베이스에서 질문에 해당하는 문서 청크를 검색하고, 그 뒤에 LLM을 이용해 각 청크가 질문과 실제로 관련 있는지를 판단한다. 만약 검색된 모든 청크가 질문과 연관성이 있다고 판단되면, 기존 RAG 파이프라인과 동일하게 해당 청크들을 LLM에 넘겨 바로 답변을 생성한다. 반면 일부 청크가 질문과 무관하다고 판단되면, 질문을 다시 표현해(Reforming) 웹 검색을 수행해 추가적인 관련 정보를 확보하고, 새로 얻은 자료와 원래 질문을 다시 LLM에 전달하여 최종 응답을 만든다. 이렇게 “검색 → 관련성 검증 → 재검색 → 생성”의 순환 과정을 그래프 형태로 연결하면, 보다 유연하고 정확한 답변을 제공하는 에이전트 RAG 시스템을 구현하게 된다.
-06_“에이전트 RAG 설계” 중에서
먼저 전통적인 RAG 질의응답 체인을 구성해 랭체인과 연계한다. 이 체인을 사용해 근무 복장 기준 문서 내에 존재하는 질문(예: “근무 복장 선정 시 착안 사항 알려 줘”)에 대해 정확한 답변을 생성하는 것을 확인한다. 그러나 RAG 지식에서 벗어난 질문(예: “백록담이 있는 산의 높이 알려 줘”)에 대해서는 “RAG에 관련 정보가 없습니다”와 같은 응답만 반환되어 질문에 제대로 답하지 못하는 한계가 드러난 것을 확인한다. 이 한계를 극복하기 위해 랭그래프 기반 에이전트 RAG가 구현된다. 실무에서는 먼저 이런 ‘기본 RAG 베이스라인’을 확인한 뒤, 어드밴스드/에이전트 RAG를 점진적으로 도입하는 것이 디버깅과 성능 비교에 유리하다.
-09_“에이전트 RAG 구현 실무” 중에서