최근 유명인의 얼굴이나 음성을 도용한 AI 허위광고 피해 사례가 늘고 있습니다.
투자를 유도하거나, 금융 플랫폼을 사칭한 가짜 영상을 제작·배포하는 사례가 잇따르며, 사회적 피해가 빠르게 확산되고 있습니다.
최근 경기남부경찰청은 이재명 대통령이 특정 플랫폼 투자를 권유하는 가짜 AI 영상에 대해 내사에 착수했습니다.
경찰은 투자사기 사이트 ‘이퀄룸’이 해당 영상을 제작·유포하여, 투자 사기를 벌였을 가능성을 수사 중입니다.
AI 허위광고, 왜 위험할까?
AI 기술을 이용한 허위 광고는 단순한 ‘거짓 정보’ 수준을 넘어, 진짜처럼 보이는 인물의 얼굴과 목소리를 그대로 구현합니다.
특히 유명인이나 공인처럼 신뢰도가 높은 인물이 등장할 경우, 피해자들은 실제 발언으로 착각해 투자·송금 등 금전 피해를 입을 수 있습니다.
서정빈 변호사는 언론 인터뷰에서 다음과 같이 주장하였습니다.
“AI를 활용한 사기범죄는 영상의 정교성과 전파 속도 때문에 다수의 피해자가 단시간에 발생할 수 있습니다.
따라서 일반적인 사기보다 더 엄중한 처벌이 필요합니다.”라면서, “AI 영상은 제작이 매우 쉽고, 확산 속도가 빨라 피해 통제가 어렵습니다.
따라서 플랫폼 사업자에게 불법 딥페이크 유포 방지 의무를 명확히 부과하고, 신속한 삭제나 차단을 위한 법적 근거를 마련해야 합니다.”라는 의견을 제시하였습니다.
AI허위광고를 할 경우 적용 가능한 법적 처벌
AI를 이용한 허위광고는 형법상 사기죄로 처벌될 수 있습니다.
사기죄 기본형: 징역 1년 6개월~4년
피해 금액 5억 원 이상 시: 「특정경제범죄 가중처벌법」 적용 → 3년 이상 유기징역
또한, 피해자들은 민사상 손해배상청구를 통해 금전적 피해를 회복할 수 있습니다.
얼굴이 도용된 유명인은 초상권·인격권 침해,
속아서 금전 피해를 입은 일반 피해자는 재산상 손해배상 청구가 가능합니다.
AI 기술은 우리의 생활을 편리하게 만들지만, 잘못 사용될 경우 거대한 피해를 초래할 수 있습니다.
특히 AI를 이용한 허위광고나 사기는 단순 범죄를 넘어 사회적 신뢰를 무너뜨리는 심각한 문제로 인식되고 있습니다.
이러한 AI·사이버 관련 범죄는 기술적·법적 판단이 모두 필요한 만큼, 변호사의 조력이 필수적입니다.
법무법인 소울 정동 분사무소는 AI·딥페이크, 사이버사기, 명예훼손 등 최신 디지털 범죄 대응 경험을 갖춘 변호사들이 직접 사건을 수행합니다.
관련 상담이 필요하시다면 언제든 문의주시기 바랍니다.
로톡의 모든 콘텐츠는 저작권법의 보호를 받습니다.
콘텐츠 내용에 대한 무단 복제 및 전재를 금지하며, 위반 시 민형사상 책임을 질 수 있습니다.
