요즘 생성형 인공지능 AI가 대세다. 영화 예술 번역 등 모든 분야에서 ChatGPT와 구글 바드(Bard) 등 생성형 인공지능AI이 영향을 끼치고 있다. 문제는 사기꾼들이 사기를 치는데도 AI를 이용한다는 것이다.
연방거래위원회(FTC) 마케팅 부서의 벤 데이비슨(Ben Davidson) 변호사는 최근 문자메시지(텍스트 메시지) 기반 사기에 AI가 많이 이용된다고 경고한다. 특히 지난 2022년에는 텍스트 메시지, 음성 메시지 사기가 큰 폭으로 증가했는데, 가장 흔한 수업은 은행을 사칭한 문자메시지이다. 그 다음으로는 공짜 선물 메시지, 택배 수령 메시지, 취업 메시지, 아마존 사칭 메시지 등이 많다고 지적했다.
이중 신종 사기수법은 AI를 이용한 가짜 가족 메시지 사기다. 과거 사기꾼들은 노인들에게 무작위로 전화해 가족의 목소리를 흉내내 “할아버지, 급한 일이 생겼으니 돈을 빌려달라”고 했다. 또는 “가족을 납치했으니 돈을 내놓으라”며 비명 소리를 들려주는 악랄한 사기를 치기도 했다. 이런 류의 사기는 한국이나 미국내 한인사회에도 유행한 적이 있다.
그러나 최근에는 AI기술로 가족의 목소리를 흉내내 전화하는 사례가 늘었다고 데이비슨 변호사는 지적한다. 예를 들어 AI로 가족의 목소리를 흉내내 녹음 메시지를 보내는 것이다. “할아버지, 나야. 문제가 생겼어”라는 식으로 운을 뗀 후 “해외 여행중에 문제가 생겼어” “감옥에 들어왔어” “자동차 사고를 당했어”라는 핑계를 대며 돈을 요구하는 것이다. “엄마아빠에게는 이야기하지 마, 틀림없이 화내실거야”라는 식의 핑계도 덧붙인다.
데이비슨 변호사는 “우리가 피해자와 면담한 결과, 피해자는 상대방이 진짜 가족의 목소리가 아니라 AI라는 점에 크게 놀랐다”고 지적한다.
불행중 다행으로 한인들의 경우 AI로 한국인의 한국어 목소리를 흉내내는 사례는 아직 많지 않은 것을 보인다. 하지만 AI기술 발달 수준으로 볼때 사기꾼들이 한인들의 목소리를 흉내내는 것도 머지 않을 것으로 보인다.
그렇다면 이런 류의 사기에 어떻게 대처해야 할까. 데이비슨 변호사는 “이런 식의 전화를 받으면 당황해서 급하게 대응하지 말고, 진짜 가족인지 확인해봐야 한다”며 상대방에게 질문을 던져보라고 한다. 예를 들어 가족을 사칭한 전화라면 “아들 이름은 뭐냐””우리 이웃 이름은 뭐냐””어제 저녁에 우리가 뭘 먹었지”라고 물어보라는 것이다.
만약 상대방이 사기꾼으로 파악될 경우 즉시 끊고 사기전화를 방지해야 한다. 대부분의 스마트폰은 전화번호 차단(블락) 기능이 있다. 통신회사에 전화해서 이런 식의 메시지를 차단해달라고 요청할수도 있고, 사기전화 차단 앱을 깔수도 있다. 또는 사기꾼이 아마존을 사칭하면 아마존에 직접 전화해 진위여부를 확인할수도 있다.
마지막으로 본인이 당한 사기 피해를 반드시 경찰 및 FTC에 신고하는 것이다. 대다수의 한인타운 경찰서는 온라인으로 폴리스 리포트 작성이 가능하다. 또한 FTC는 인터넷 reportfraud.ftc.gov에서 사기 접수가 가능하다.