Escrocherie cu deepfake al vocii lui Crosetto – toate pericolele inteligenței artificiale

O escrocherie sofisticată a implicat numele și vocea clonată a ministrului Guido Crosetto pentru a înșela mai mulți antreprenori.
O înșelătorie de mare amploare
Mai mulți antreprenori italieni de renume au fost contactați de infractori care s-au dat drept membri ai staff-ului ministrului Guido Crosetto sau chiar drept ministrul însuși. Metoda folosită a exploatat inteligența artificială: escrocii ar fi utilizat un software avansat pentru a clona vocea lui Crosetto, convingând victimele să efectueze transferuri bancare de sute de mii de euro către conturi din străinătate.
Ancheta este în desfășurare, iar Procuratura din Milano a primit deja mai multe plângeri, încercând să blocheze transferurile de bani.
Cum a fost organizată frauda
Escrocheria a fost bine gândită. Victimele erau contactate telefonic de persoane care pretindeau a fi din staff-ul ministrului Apărării, iar în unele cazuri, era folosită o voce clonată prin software AI, ceea ce făcea frauda și mai credibilă.
Metoda folosită:
- Li se solicita un transfer bancar urgent către un cont din Hong Kong, sub pretextul că banii erau destinați răscumpărării unor italieni ținuți ostatici în Orientul Mijlociu.
- Se promitea rambursarea integrală de către Banca Italiei, un detaliu complet fals.
- Erau utilizate numere de telefon clonat, unele cu prefix italian, pentru a face apelurile și mai convingătoare.
Primul care a descoperit înșelătoria a fost chiar Guido Crosetto, după ce a fost contactat de prieteni antreprenori suspicioși. „Unul dintre ei m-a întrebat de ce secretariatul meu l-a sunat. I-am spus că e imposibil, pentru că deja aveam numărul lui”, a povestit ministrul.
După primele plângeri, Crosetto a lansat un avertisment pe rețelele sociale, îndemnând oamenii să fie vigilenți în fața acestui tip de fraudă sofisticată.
Cine sunt victimele fraudei
Printre antreprenorii vizați se numără nume mari din lumea afacerilor italiene:
- Massimo Moratti (fost președinte Inter)
- Giorgio Armani (designer de modă)
- Patrizio Bertelli (Președintele Grupului Prada)
- Marco Tronchetti Provera
- Diego Della Valle
- Familia Caltagirone
Unii dintre ei și-au dat seama la timp și nu au căzut în capcană, însă un antreprenor din Milano a transferat un milion de euro în două tranșe. Procuratura din Milano și Carabinierii încearcă să recupereze fondurile, dar șansele sunt mici.
Massimo Moratti a confirmat tentativa de fraudă:
„Părea totul absolut real. Este o situație care i se poate întâmpla oricui, chiar dacă nu te aștepți. Am depus plângere și prefer să aștept evoluția anchetei înainte de a spune mai multe.”
Deepfake audio: arma perfectă pentru escroci
Unul dintre cele mai îngrijorătoare aspecte ale acestei fraude este utilizarea deepfake audio, o tehnologie care permite replicarea vocii cu o acuratețe uimitoare folosind doar câteva secunde de înregistrare.
- Tehnologia deepfake audio este deja folosită în înșelătorii sofisticate, cum ar fi false răpiri, unde membrii familiei sunt convinși că o persoană dragă a fost luată ostatică.
- Recent, OpenAI a limitat accesul la tehnologia sa Voice Engine, tocmai pentru a preveni abuzurile, dar există numeroase alte software-uri accesibile online.
Cum te poți proteja?
Având în vedere creșterea acestor atacuri, este esențial să adopți măsuri de siguranță:
✔️ Nu te încrede în cereri urgente de bani primite prin telefon sau email.
✔️ Verifică întotdeauna identitatea persoanei care a efectuat apelul, folosind un alt canal de comunicare.
✔️ Folosește un cod secret în familie sau între colegi pentru confirmarea cererilor sensibile.
✔️ Activează autentificarea în doi pași prin aplicații precum Google Authenticator.
Chiar și Banca Italiei a emis un avertisment împotriva tentativelor de fraudă care îi folosesc numele și logo-ul pentru a solicita transferuri bancare.
Acest caz de fraudă cu voce clonată a ministrului Guido Crosetto marchează un nou nivel de sofisticare în înșelătoriile telefonice. Utilizarea inteligenței artificiale pentru imitarea vocii devine o amenințare tot mai mare, făcând tot mai dificilă diferențierea dintre real și fals.
🔹 Tu ce părere ai despre această situație? Crezi că autoritățile pot combate eficient aceste tipuri de fraude?