AI가 훔친 목소리, 가족까지 속인다..

 

 

30초면 완성되는 목소리 복제, 실제 딸 목소리와 구별 불가능

딥보이스·딥페이크 결합해 금융 보안까지 위협

피해는 커지는데 통계조차 없다… 정부·수사기관 대응 시급

 

울먹이며 도움을 요청한 그 목소리는 A교수가 평생 들어온 외동딸의 목소리였다. 외동딸은 “급하게 5000만원만 이체해 줄 수 있어?…” 도움을 요청하였고, 송금 전 이내 수상함을 느낀 그는 딸에게 다시 전화를 걸었다.

딸은 “보이스피싱이었던 것 같아”라며 당황한 반응을 보였다. 전화를 걸어왔던 목소리는 AI 기술을 활용해 실제 목소리를 흉내 낸 가짜였던 것이다.

최근 음성 AI 기술이 급속히 발전하며 이를 악용한 범죄 유형이 새롭게 등장하고 있다. 과거 단순한 목소리 모방이나 기관 사칭에 그쳤던 수법은 이제 실제 목소리를 AI로 복제해 사용하는 방식으로 진화했다. ‘딥보이스’라고 불리는 이 수법은 먼저 피해자에게 전화를 걸어 대화를 유도해 음성 데이터를 확보하는 방식으로 시작된다. 확보한 데이터를 AI 프로그램에 입력하면, 짧은 대화만으로도 피해자의 가족이나 지인 목소리를 유사하게 재현할 수 있다.

서울신문이 직접 한 딥보이스 애플리케이션에 음성 파일을 업로드한 결과, 30초도 채 되지 않아 말투와 속도를 분석해 유사한 목소리를 출력하는 데 성공했다.

“엄마 폰이 고장났는데 100만원만 보내줘”라는 문장을 입력하고 상황을 설정하자, 원래 녹음된 음성과 흡사한 톤의 음성이 생성되었다.

법무법인 청의 곽준호 변호사는 “목소리만 있으면 누구나 쉽게 이를 AI로 재현할 수 있고, 실제처럼 들리게 만들 수 있기 때문에 악용 가능성이 높다”고 설명했다. 경찰 관계자 역시 “이러한 유형의 보이스피싱이 자주 발생하고 있으며, 음성 수집을 담당하는 일명 ‘콜센터’를 검거하기는 매우 어렵다”고 밝혔다.

이처럼 첨단 기술을 이용한 범죄가 급증하고 있음에도 정확한 피해 규모는 파악조차 어려운 실정이다. 경찰청에 따르면 지난해 발생한 보이스피싱으로 인한 피해 금액은 8545억원으로 전년도 대비 91% 급증했다. 그러나 딥보이스 기술이 실제 얼마나 사용됐는지에 대한 세부 통계는 현재 없다.

음성 외에도 얼굴 역시 AI 기술로 복제되는 범죄가 지속되고 있다. 카카오톡 등의 SNS에 등록된 프로필 사진을 도용해 영상이나 사진으로 변조하는 사례가 대표적이다. 이미 심각한 사회문제로 자리잡은 딥페이크 성범죄뿐 아니라, 최근에는 금융기관의 생체인증을 뚫기 위한 시도도 이어지고 있다. 지난달 한 인터넷은행에서는 범죄자들이 도용한 면허증 사진을 기반으로 AI로 얼굴을 합성해 인증 시스템을 우회하려 했던 정황이 포착됐다.

동국대학교 국제정보보호대학원의 황석진 교수는 “기술이 정교해질수록 피해자가 속기 쉬워지는 구조다”며, “AI 기반 범죄의 실태를 정확히 파악하고, 대응할 수 있는 체계를 조속히 마련해야 한다”고 강조했다.

출처 : 서울신문, [단독] “여보세요” 한마디로 내 딸 목소리 훔쳤다… AI로 진화한 ‘피싱’, 유규상 기자,

https://m.seoul.co.kr/news/society/2025/04/10/20250410012001?utm_source=chatgpt.com

참고(출처) : 유규상 기자, [단독] “여보세요” 한마디로 내 딸 목소리 훔쳤다… AI로 진화한 ‘피싱’, 서울신문, 20250410, 12면

댓글 남기기

회원의 글