책소개
의료 AI, 신뢰할 수 있는 기술로 거듭나다
의료 인공지능(AI)이 급속도로 발전하면서 의료 현장에서 AI 활용이 점점 더 중요해지고 있다. 그러나 AI가 높은 정확도를 자랑한다고 해서 반드시 신뢰받고 사용되는 것은 아니다. 의료진과 환자가 AI의 판단을 이해하고 신뢰할 수 있으려면 설명 가능한 AI가 필요하다.
이 책은 의료 AI의 발전 과정을 AI 1.0(확률적 모델과 전문가 시스템), AI 2.0(딥러닝과 정확도 향상), AI 3.0(파운데이션 모델과 생성 AI)으로 나누어 설명한다. 특히, 최근 등장한 파운데이션 모델과 생성 AI가 어떻게 의료 분야에서 활용되고 있는지를 다양한 사례를 통해 분석한다.
그러나 높은 정확도만으로는 좋은 의료 AI가 될 수 없다. 의료 AI가 실제 임상에서 활용되기 위해서는 정확성, 임상적 유용성, 그리고 설명 가능성이 모두 갖춰져야 한다. 이 책은 AI가 의료진과 환자에게 신뢰받기 위해 갖추어야 할 조건을 설명하며, AI의 ‘블랙박스 문제’를 해결할 수 있는 설명 가능한 AI 기술을 심층적으로 다룬다.
200자평
의료 AI는 높은 정확도를 자랑하지만, 신뢰받기 위해서는 설명 가능성이 필수적이다. 이 책은 의료 AI의 발전 과정(AI 1.0~3.0)과 최신 기술(파운데이션 모델, 생성 AI)을 분석하며, AI의 정확성, 임상적 유용성, 설명 가능성이 어떻게 조화를 이뤄야 하는지를 탐구한다. 특히, AI의 ‘블랙박스 문제’ 해결을 위한 설명 가능한 AI 기술을 다루며, 의료진과 환자가 신뢰할 수 있는 AI의 조건을 제시한다.
지은이
박상민
서울대학교 의과대학 교수다. 서울대 의과학과 건강시스템 데이터사이언스 연구실의 책임교수이며, 설명 가능한 AI 의료 기기를 개발하는 스타트업인 자이메드(XAIMED)의 창업자다. 서울대학교 의과대학을 졸업했으며 하버드대학교 보건대학원에서 박사후 과정을 거쳤다. 대통령 직속 4차 산업혁명위원회 위원 및 한국보건의료연구원 연구기획단장, 서울대학교병원 건강증진센터장을 역임했으며, 현재 서울대학교병원 공공의료빅데이터 융합연구사업단 단장을 맡고 있다. 정확도와 설명 가능성을 함께 고려해 최적의 의료 AI 모델을 개발하고 기회진단 AI를 통해 새로운 디지털 바이오마커를 연구한다. 대한의학회 분쉬의학상 젊은의학자상, 서울시의사회 유한의학상, 대한민국의학한림원 화이자의학상, 범석학술재단 범석상 등을 수상했으며 데이터사이언스 및 인공지능 영역에서 330여 편 이상의 논문을 국제 학술지에 게재했다.
차례
AI의 세대 변화와 좋은 의료 AI의 조건
01 블랙박스 모델과 화이트박스 모델
02 블랙박스를 여는 설명 가능한 AI 기술
03 의료 영상 AI를 여는 설명 가능한 AI 기술
04 의료 AI 인허가 규제와 설명 가능한 의료 AI
05 우연을 혁신으로, 기회진단 AI
06 파운데이션 모델과 다중 모달리티 의료 AI
07 생성 의료 AI, 헬스케어 챗봇과 신약 개발 AI
08 반사실적 생성 AI, 설명 가능한 AI로 가는 새 길
09 인간 중심 의료 AI
10 소통을 넘어 새로운 이해로
책속으로
좋은 의료 AI의 핵심 요소 중 하나는 설명 가능성이다. 아무리 정확도가 높더라도 판단 과정을 이해하기 어렵다면 의료진과 환자는 AI 사용을 주저할 수 있다. 설명 가능한 AI는 의료 AI의 의사 결정 과정을 인간이 이해하고 해석할 수 있도록 도와주는 기술이다. 이는 의사와 환자 간의 원활한 소통을 도울 뿐만 아니라 의료 기기의 인허가 과정과 신뢰성 확보에도 필수적이다.
-“AI의 세대 변화와 좋은 의료 AI의 조건” 중에서
의료 AI는 정확도와 해석 가능성에 따라 블랙박스 모델과 화이트박스 모델로 구분된다. 블랙박스 모델은 높은 정확도를 제공하지만 해석이 어려워 신뢰성에 한계가 있다. 화이트박스 모델은 내부 작동 원리와 결정 과정이 드러나는 투명한 모델이지만 복잡한 데이터 패턴을 처리하는 데 한계가 있다. 설명 가능한 AI 기술을 활용하면 높은 정확도를 유지하면서도 해석 가능성을 높일 수 있다.
-01_“블랙박스 모델과 화이트박스 모델” 중에서
설명 가능한 AI는 AI 의사 결정 과정과 그 근거를 명확하게 제공함으로써 책임 소재를 규명하고 AI 사용의 신뢰성을 높일 수 있다. 또한 설명 가능한 AI는 결정 과정의 투명성을 제공하여 국가 간의 상이한 의료 AI 규제 속에서도 국제적 협력을 촉진할 수 있다.
-04_“의료 AI 인허가 규제와 설명 가능한 의료 AI” 중에서
과학의 핵심은 원인과 결과를 명확히 이해하는 것인데, 현재의 AI는 도출 과정을 명확하게 설명하지 못하고 결과만을 제공하는 경우가 많다. AI가 연구 도구로서 매우 유용하더라도, 그 결과를 도출하는 과정을 명확히 이해하고 작동 원리와 메커니즘을 규명하는 노력이 필요하다. AI가 단순한 블랙박스로 남지 않기 위해서는 AI가 제시한 분자 구조나 치료 방법이 왜 효과적인지에 대한 설명이 중요하다.
-07_“생성 의료 AI, 헬스케어 챗봇과 신약 개발 AI” 중에서