FBI, AI Deepfake 갈취 사기 경고

실제와 같은 이미지를 생성하는 생성 AI의 능력은 인상적이지만 미국 연방 수사국은 범죄자들이 딥페이크를 사용하여 피해자를 강탈 대상으로 삼고 있다고 밝혔습니다.

“FBI는 사진이나 비디오가 노골적인 콘텐츠로 변경된 미성년자 어린이와 동의하지 않은 성인을 포함한 피해자로부터 계속 신고를 받고 있습니다.”라고 기관은 월요일 공익 광고에서 밝혔습니다.

FBI는 법 집행 기관이 작년에 미성년자를 대상으로 한 온라인 갈취에 대해 7,000건 이상의 보고서를 접수했으며, XNUMX월 이후 딥페이크를 사용하는 소위 "섹스 토션 사기" 피해자가 증가했다고 밝혔습니다.

딥페이크는 Midjourney 5.1 및 OpenAI의 DALL-E 2와 같은 생성 AI 플랫폼 덕분에 가짜로 식별하기 점점 더 어려워지는 거짓 이벤트를 묘사하는 인공 지능으로 제작된 비디오 또는 오디오 콘텐츠의 일반적인 유형입니다.

지난 XNUMX월 암호화폐 투자자들을 사기 위해 만든 테슬라와 트위터 CEO 일론 머스크의 딥페이크가 입소문을 탔다. 소셜 미디어에 공유된 동영상에는 사기에 맞게 편집된 머스크의 이전 인터뷰 영상이 포함되어 있습니다.

딥페이크가 모두 악의적인 것은 아니며, 흰색 발렌시아가 재킷을 입은 프란치스코 교황의 딥페이크가 올해 초 입소문이 났으며 최근에는 AI가 생성한 딥페이크가 살인 피해자를 되살리는 데에도 사용되었습니다.

FBI는 권고안에서 몸값을 지불한다고 해서 범죄자들이 어쨌든 딥페이크를 게시하지 않을 것이라는 보장이 없기 때문에 몸값을 지불하지 말라고 경고했습니다.

FBI는 또한 계정을 비공개로 설정하고, 어린이의 온라인 활동을 모니터링하고, 과거에 상호 작용한 사람들의 비정상적인 행동을 감시하는 것과 같은 개인 정보 보호 기능을 사용하는 것을 포함하여 온라인에서 개인 정보 및 콘텐츠를 공유할 때 주의를 권고합니다. 기관은 또한 온라인에서 개인 및 가족 구성원 정보를 자주 검색할 것을 권장합니다.

경보를 울리는 다른 기관으로는 범죄자들이 딥페이크를 사용하여 자신이 납치되었다고 말하는 친구나 가족의 오디오 딥페이크를 만든 후 순진한 피해자를 속여 돈을 보내도록 속이고 있다고 경고했습니다.

“인공지능은 더 이상 공상과학 영화에서나 나올법한 이야기가 아닙니다. 우리는 지금 여기에서 그것과 함께 살고 있습니다. 사기꾼은 AI를 사용하여 사랑하는 사람의 목소리를 복제할 수 있습니다.”라고 FTC는 지난 XNUMX월 소비자 경고에서 말했습니다.

FBI는 아직 응답하지 않았습니다. 해독 의견을 요청하십시오.

암호화 뉴스를 최신 상태로 유지하고 받은 편지함에서 매일 업데이트를 받으십시오.

출처: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams