"AI, 3초면 목소리 완벽 복제"…보이스피싱에 악용 우려


홈 > 로컬뉴스 > 로컬뉴스 > 사회
로컬뉴스

"AI, 3초면 목소리 완벽 복제"…보이스피싱에 악용 우려

웹마스터

컴퓨터 백신업체 맥아피 조사

"응답자의 70% 실제와 구별 어려워"


특정인 목소리를 감쪽같이 복제하는 생성형 인공지능(AI)이 보이스피싱에 활용되면서 피해사례가 늘고 있다고 뉴스매체 악시오스가 13일 보도했다.


컴퓨터 바이러스 백신 업체 맥아피에 따르면 생성형 AI를 사용할 경우 3초 분량의 목소리 샘플만 있어도 이를 완벽히 복제해 특정인 말투, 문장 등을 구현할 수 있다. 


이 때문에 금융당국 등을 사칭하던 보이스피싱 조직이 이제는 범죄 대상자의 지인을 사칭하고 있다. 가족, 친구, 연인 등의 목소리를 구현한 생성형 AI로 교통사고, 강도 등 급한 상황이 생겼다면서 돈을 보내달라고 요구하는 식이다.


미리 준비한 말을 일방적으로 전달하는 것을 넘어 생성형 AI로 복제한 목소리로 실시간 대화를 할 수도 있다고 악시오스는 전했다.


생성형 AI 관련 애플리케이션(앱) 등을 활용하면 보이스피싱 범죄자가 입력하는 문장을 AI가 즉시 목소리로 구현한다는 설명이다.


실제 맥아피가 올해 1월 27일∼2월 1일 사이 전 세계 18세 이상 성인 7000명을 대상으로 조사한 결과 응답자의 70%는 AI로 구현된 목소리와 실제 목소리를 구별할 수 없다고 답했다. 이런 상황에서 사람들은 AI 보이스피싱에 감쪽같이 속고 있다.


응답자의 10%는 AI 보이스피싱을 겪은 적 있다고 답했으며 이 가운데 77%는 실제로 돈을 잃었다고 밝혔다. 이들 피해자 중 3분의 1 이상은 1000달러 이상 피해를 봤다고 한다.


스티브 그롭먼 맥아피 부사장은 "음성복제는 사용하기 매우 쉬운 수단이다. 범죄자는 AI 관련 전문지식이 없어도 이를 활용할 수 있다"고 경고했다.


전문가들은 전화통화 시 지인과 본인만 아는 암호어를 만들어 두는 것이 AI 보이스피싱을 예방하는 데 도움이 된다고 조언했다. 의심이 갈 경우 전화를 일단 끊고 다시 거는 것도 좋은 방법이라고 악시오스는 전했다.

0 Comments