책소개
리걸테크 확산과 법조 실무의 책임 체계
생성형 인공지능의 등장은 법률 조사, 계약서 검토, 서면 초안 작성, 전자 증거 분석, 판례·법령 검색까지 법조 실무 전반의 관행을 바꾸고 있다. 효율성과 비용 절감, 법률서비스 접근성 확대라는 기대가 커지는 만큼, 정확성·윤리·책임의 기준을 다시 세워야 한다. 대규모 언어 모델의 허위 정보 생성, 편향, 작동 과정의 불투명성은 실무에서 곧바로 위험으로 전환된다. 자동화 결과에 기대는 판단 습관, 딥페이크 증거로 인한 진위 판단의 어려움도 재판의 공정성과 신뢰를 흔든다. 이 책은 변호사·검찰·법관·사법 행정·소송당사자라는 현장을 축으로, 인공지능 활용의 이익과 한계를 함께 점검하고 감독 의무, 비밀 유지, 설명 책임, 검증 절차를 구체화한다. 규제와 진흥이 충돌하는 국내 환경까지 짚으며, 혁신을 실무에 안착시키는 조건을 제시한다.
200자평
인공지능은 법률 조사와 문서 작성, 증거 분석을 빠르게 바꾸고 있다. 그러나 허위 정보 생성, 편향, 불투명성, 딥페이크 증거는 실무 위험을 키운다. 이 책은 법조 각 주체의 윤리와 책임, 검증 절차, 제도 정비 과제를 정리한다. AI문고. aiseries.oopy.io에서 필요한 인공지능 지식을 찾을 수 있다.
지은이
심소연
국회도서관 법률자료조사관(EU법 담당)이며 한국외국어대학교 LT(Language & Trade)학부 겸임교수를 역임했다. 연세대학교에서 법학과 외교통상학을 전공했고 프랑스 릴(Lille)대학교에서 법학 석사와 박사학위를 받았으며 유럽의회 인턴 및 방문연구원 활동을 한 바 있다. 박사학위 논문 “La cooperation interparlementaire au sein de l’Union europeenne(유럽연합 내 의회 간 협력)”으로 유럽의회와 스트라스부르 정치대학(SciencePo Strasbourg)이 공동 주관하는 피에르 플림랭 논문상(Prix de these Pierre Pflimlin)의 심사위원 특별상을 2022년 아시아인 최초로 수상했다. 주요 연구 분야는 유럽연합(EU)의 디지털 규제 분야(AI, 데이터, 사이버안보 등)와 디지털 혁신 시대의 민주주의 등이다. 주요 논문으로는 “유럽평의회의 ‘인권·민주주의·법치주의 관점에서 본 위험 및 영향평가(HUDERIA)’가 「EU 인공지능법」상 ‘기본권 영향평가(FRIA)’에 미치는 영향 및 국내 시사점”이 있고, “규제 중심의 유럽연합 인공지능법(EU AI Act)” 등 다수의 소속기관 발간물이 있다.
차례
혁신과 책임의 시대
01 법조계에서 AI 활용의 필요성과 도전 과제
02 변호사의 AI 활용
03 검찰의 AI 활용
04 사법 행정과 AI
05 법관의 AI 활용
06 AI와 재판의 공정성
07 소송당사자의 AI 활용에 대한 대응
08 법조인의 AI 활용 윤리와 책임
09 AI 기술과 사법 신뢰
10 AI와 미래의 법조 실무
책속으로
AI는 또한 법률 업무의 본질을 재정의할 것으로 전망된다. 판례 검색, 계약서 검토, 소송절차 보조 등 과거 로펌의 영역이던 업무를 기술이 대신하는 시대가 성큼 다가왔다는 평가도 있다. 이러한 변화는 기존 법률 시장의 공급자와 수요자 모두에게 영향을 미치며, AI를 활용하는 변호사는 업무 처리 과정에서 확보된 시간을 활용하여, 보다 가치 있는 법률서비스를 제공하는 데 집중할 수 있게 된다.
-01_“법조계에서 AI 활용의 필요성과 도전 과제” 중에서
검찰은 AI 기반 법률서비스 플랫폼을 활용하여 업무의 효율성을 증진하고 있다. 국내에서도 대검찰청, 경찰청 등이 AI 기반 법률 정보 서비스를 도입하거나 그 활용을 고려하고 있음이 보고되었다. 변호사를 대상으로 하는 AI 기반 서비스는 법률 정보 조사, 계약서 검토, 법률서면 초안 작성, 사건이나 문서 기반 지원, 사례에 대한 문제 해결 등 다양한 형태로 제공되며, 검사들 역시 법률 전문가만을 대상으로 하는 AI 기반의 검색 및 리서치 플랫폼을 사용하고 있음이 확인된다. 이러한 서비스는 단순한 키워드 검색을 넘어, 이용자의 요청을 분석하고 관련 데이터를 바탕으로 정리된 결과물을 제공함으로써 업무 효율을 높인다.
-03_“검찰의 AI 활용” 중에서
더욱 심각한 문제는 데이터와 알고리즘의 편향성이다. AI는 훈련 데이터의 부족한 대표성, 부정확성 또는 특정 집단의 배제 등으로 인해 편향된 결론을 도출할 수 있다. 예를 들어, 미국의 재범 위험성 평가 도구인 COMPAS 알고리즘은 흑인의 재범 위험성을 다른 인종에 비해 과도하게 높게 평가하는 인종적 편향성을 보인 바 있으며, 위스콘신주 대법원에서 COMPAS의 보고서가 젠더에 기반한 차별을 야기할 수 있다는 문제가 제기되기도 했다. 이러한 편향성은 AI 시스템의 결괏값이 다시 훈련 데이터로 활용되면서 기존의 편향성이 더욱 심해지고 고착되는 ‘피드백 루프’라는 악순환을 만들 수도 있다.
-06_“AI와 재판의 공정성” 중에서
AI 알고리즘이 내재한 편향성(bias)은 사법 신뢰를 저해하는 핵심 문제로, AI가 훈련 데이터에 담긴 역사적 또는 사회적 편견을 답습함으로써 불공정한 사법 결과를 초래할 수 있다. AI는 학습 데이터에 편향된 인간의 관념이 내재되어 있다면, 이를 학습하고 유사한 암묵적 또는 명시적 편향을 결과물에 반영한다. 이로 인해 AI가 특정 인종이나 사회 경제적 배경에 따라 불공정한 예측이나 결정을 내릴 위험이 있으며, 이는 평등 원칙과 사법 정의에 심각한 위협이 된다. 또한 AI 알고리즘의 작동 원리가 불투명한 블랙박스 특성은 사법 시스템의 투명성을 저해하는 주된 요인이다. AI가 법률 업무에 활용될 때 발생하는 오류는 인간의 실수보다 훨씬 파괴적일 수 있으며, 일단 발생하면 회복하기 어렵다.
-09_“AI 기술과 사법 신뢰” 중에서