Dacă un membru al familiei vă sună din închisoare și vă spune că are nevoie să îi transferați niște bani pentru cheltuieli de judecată, ați fi de acord cu el și ați înrăutăți situația sau ați trimite banii imediat? În martie 2023, un cuplu canadian s-a confruntat exact cu această situație. Aceștia au primit un apel telefonic disperat de la fiul lor, Benjamin, care pretindea că este în închisoare și are nevoie de bani. Vocea de la telefon era inconfundabilă și a insistat să îi trimită imediat 21.000 de dolari. Așa că au făcut-o. Pentru că își iubesc fiul.
Dar nu era fiul lor la telefon. Era o clonă audio a vocii sale, creată de infractori cibernetici cu ajutorul unor instrumente bazate pe inteligență artificială. Înainte aveai nevoie de o mulțime de date audio pentru a clona vocea cuiva. Acum, tot ce ai nevoie este un TikTok. Există programe în întregime legale și abia reglementate, precum ElevenLabs, care utilizează mostre vocale scurte pentru a crea voci AI cu potențialul de a înșela oameni precum părinții lui Benjamin. Fie că este vorba de deepfakes audio, text sau chiar video, escrocheriile bazate pe AI devin mult mai periculoase decât ne-am fi putut imagina vreodată.
În 2019, infractorii au folosit o înregistrare audio generată de inteligența artificială pentru a-l păcăli pe șeful unei firme de energie din Marea Britanie să transfere 220.000 de lire sterline într-un cont fraudulos. Acesta este considerat unul dintre primii infractori care se bazează în mod flagrant pe tehnologia AI pentru a executa o înșelătorie. În cealaltă parte a lumii, în China, cineva a folosit tehnologia AI de schimbare a feței pentru a se da drept o persoană în timpul unui apel video. Victima a crezut că transferă 4,3 milioane de yuani, 662.000 de dolari, unui prieten care trebuia să facă un depozit în timpul unei licitații. Mai târziu, când prietenul real a fost derutat de situație, victima și-a dat seama că fusese păcălit.
Deepfakes există de ceva vreme, dar inteligența artificială generativă, precum ChatGPT, a dus puterile acestora la următorul nivel.
Recent, pe WhatsApp au apărut o serie de videoclipuri cu persoane false generate de AI cu accent american care își exprimau sprijinul pentru o lovitură de stat susținută de armată în Burkina Faso. Dar ceea ce spuneau acești “oameni” avea o gramatică proastă, ceea ce a scos imediat la iveală faptul că videoclipurile erau frauduloase. Dacă scenariile ar fi fost scrise de ChatGPT într-o engleză fluentă și oarecum elocventă, poate că nu ar fi fost ușor să ne dăm seama că erau false. Există deja companii, cum ar fi Hour One, cu sediul în Tel Aviv, care permit utilizatorilor să aleagă un avatar, să tasteze un mesaj în ChatGPT și să obțină un cap vorbitor realist… o personalitate generată complet de inteligența artificială.
Scopul este de a folosi aceste personalități de inteligență artificială pentru a crea reclame online, tutoriale și prezentări personalizate. Dar ele sunt, de asemenea, un semnal al modului în care această tehnologie avansată poate fi folosită pentru a păcăli oameni ca mine și ca tine, dacă cineva o folosește pentru a face rău. Și nu trebuie să fie vorba neapărat de un clip video sau audio. Escrocheriile de phishing prin text sunt disponibile de zeci de ani, iar AI le face și mai ușor de implementat în mod convingător.
Dacă acest lucru nu este suficient de rău, este posibil ca escrocii să nici nu aibă nevoie să vă convingă de ceva pentru a vă fura informațiile. PassGAN este un program de spargere a parolelor despre care se spune că poate sparge orice parolă din șapte cifre în mai puțin de 6 minute. Software-ul introduce combinații de litere, numere și simboluri și extrage cuvinte obișnuite, cum ar fi nume de echipe sportive și nume de companii, pentru a trece de ceea ce am putea considera o parolă imposibil de ghicit. Solicitările comune Captcha pentru a dovedi că nu suntem roboți ar putea fi inutile. GPT 4 a păcălit un angajat Taskrabbit să rezolve un test captcha în timpul fazei sale de testare. Acesta l-a mințit pe angajat declarând că este un om cu deficiențe de vedere pentru a-l determina să completeze testul.
Deși au fost instituite bariere de protecție pentru a împiedica GPT-4 să facă așa ceva în lumea reală, escrocii găsesc, din păcate, modalități de a ocoli aceste bariere. Una dintre numeroasele utilizări ale ChatGPT este scrierea de cod. Acest lucru poate fi util pentru utilizatorul obișnuit care are nevoie doar de un cod simplu pentru un site web sau ca un instrument care să ajute programatorii să fie mai eficienți. Dar problema cu scrierea de cod de către AI este că, de multe ori, diferența dintre malware și software-ul obișnuit nu este codul în sine, ci intenția din spatele acestuia.
Inteligența Artificială nu-și poate da seama de intenția ta, așa că nu există nicio modalitate de a ști când încerci să creezi programe malware și când vrei să creezi ceva legitim. În urma lansării sale, Check Point Software Technologies a raportat că, deși ChatGPT nu poate crea încă ceva prea sofisticat, ar putea îmbunătăți cu ușurință eficiența codului periculos care a fost scris. Vestea bună este că crearea de malware de către inteligența artificială nu este ceva de care trebuie să ne facem griji. Vestea proastă este că acest lucru nu înseamnă că suntem la adăpost de malware; înseamnă doar că hackerii au avut la dispoziție instrumente rafinate pentru crearea de malware timp de zeci de ani, motiv pentru care Aura vă pune la dispoziție un antivirus pentru a vă proteja pe dumneavoastră și familia dumneavoastră de malware. Având în vedere aceste preocupări evidente privind siguranța digitală, de ce nu fac companiile mai mult pentru a proteja persoana obișnuită de prejudicii?
Aceste escrocherii vor continua să crească datorită AI, așa că trebuie să ne protejăm. S-ar putea să credeți că sunteți impenetrabil la aceste escrocherii și s-ar putea să fiți chiar acum. Dar cu cât devin mai avansate, cu atât mai greu va fi să le depistați, mai ales pentru că mulți dintre acești escroci au deja tone de informații despre noi datorită brokerilor de date. Guvernele din întreaga lume caută să reglementeze IA și să educe cetățenii. China este singura națiune care a promulgat reguli stricte pentru a se confrunta cu IA. Europol, organismul european de poliție, a început, de asemenea, să implice părțile interesate și să organizeze ateliere de lucru cu privire la modul în care infractorii ar putea utiliza programe precum ChatGPT în scopuri nefaste. Totuși, nu putem aștepta ca guvernul sau angajatorul nostru să ne salveze. Să ne protejăm de aceste infracțiuni cibernetice bazate pe IA este responsabilitatea noastră, ceea ce este înfricoșător.
La fel ca în cazul majorității tehnologiilor, este greu de prezis ce va urma. Dar, cel puțin, putem fi siguri că, deși există atâția actori răi care încearcă să ne fure, există la fel de mulți, dacă nu chiar mai mulți, oameni inteligenți care încearcă să ne protejeze. Dacă rămânem educați și vigilenți, am putea evita jafurile cibernetice robotizate care ne așteaptă.