생성형 AI 시대, 법조윤리와 책임의 경계는 어디까지일까?
1. 사건의 발단
최근 해외에서 변호사가 AI가 생성한 가짜 판례를 그대로 서면에 인용해 법원에 제출한 사건이 발생했습니다.
해당 변호사는 ‘AI가 작성한 자료’라며 인정했지만, 판례 5건이 모두 존재하지 않는 허위 자료로 드러났습니다.
이 사건은 단순한 실수인지, 아니면 법원을 속이려는 기망행위(사기) 에 해당하는지 여부를 두고 큰 논란이 되었습니다.
2. ‘AI 판례’의 허구성 — 환각(Hallucination) 문제
생성형 AI는 그럴듯한 문장과 논리를 만들어내지만, 실제 존재하지 않는 허구의 판례(hallucinated cases) 를 생성할 수 있습니다.
이번 사건에서 AI는 실제로 있을 법한 판례명과 문장 구조를 사용해, 변호사조차 진위를 즉시 구별하기 어려웠습니다.
👉 문제의 핵심
AI는 “가능성이 높은 답변”을 만드는 도구이지, “진실을 보장하는 법률 데이터베이스”가 아닙니다.
3. 법적 쟁점 – 변호사의 책임
이 사건은 단순한 착오를 넘어, 다음과 같은 법적 논의로 확장되었습니다.
법원 기망 행위: 허위 자료를 근거로 재판을 유도한 경우 형사상 사기죄 가능성
변호사 윤리 위반: 사실 확인 없이 허위 내용을 제출 → 징계 사유 해당
소송절차 위반: 법원 신뢰 훼손, 재판 지연 등 사법방해 가능성
미국에서는 벌금 및 징계가, 영국에서는 형사처벌까지 검토되고 있습니다.
4. 일반인의 경우도 주의 필요
최근 AI를 이용해 내용증명서, 계약서, 소장 초안을 작성하는 일반인도 늘고 있습니다.
하지만 실제로 존재하지 않는 법조문이나 판례를 인용한 문서가 제출되는 사례가 발생하고 있습니다.
이 경우 문서가 법적 효력을 인정받지 못하거나, 오히려 본인에게 불리한 결과가 생길 수 있습니다.
예시)
‘위자료 청구 가능’이라며 잘못된 조항 인용 → 청구 자체가 각하
내용증명 표현이 과격해 명예훼손 역고소 발생
따라서 AI의 초안을 그대로 사용하기보다, 반드시 법률전문가 검토 후 제출하는 것이 안전합니다.
5. 결론 – AI는 도구일 뿐, 책임은 사람에게
AI는 법률 정보를 빠르게 찾는 데 유용하지만,
“AI가 그렇게 말했으니 책임이 없다”는 논리는 법적으로 통하지 않습니다.
특히 변호사나 법률대리인은 제출하는 서면의 진위를 검증할 확인 의무를 지며,
AI 출력물 역시 ‘검토·검증’ 절차를 거쳐야만 신뢰할 수 있는 자료로 인정받습니다.
기술은 진실을 대신하지 않습니다.
법적 판단의 책임은 결국 사람에게 있습니다.
로톡의 모든 콘텐츠는 저작권법의 보호를 받습니다.
콘텐츠 내용에 대한 무단 복제 및 전재를 금지하며, 위반 시 민형사상 책임을 질 수 있습니다.
