Noi metode de Phishing cu AI

Securitatea digitală și protecția identității în era inteligenței artificiale

Intersecția dintre AI și securitatea digitală

Dacă ne uităm la filmele vechi science-fiction, vedem hackerii cum comandă calculatoarelor să hack-uiască sisteme complexe de date. La acea vreme, știind cum funcționează IT-ul, râdeam bine. Astăzi, nu prea mai este de râs. Evoluția rapidă a inteligenței artificiale (AI) a transformat fundamental peisajul securității digitale și al protecției identității. Tehnologiile AI, inclusiv modelele generative și algoritmii de învățare automată, sunt integrate în aproape toate aspectele vieții online, de la rețelele sociale la tranzacțiile financiare. Această sabie cu două tăișuri oferă putere atât celor buni, cât și celor răi: în timp ce AI îmbunătățește detectarea amenințărilor și autentificarea utilizatorilor, permite și atacuri cibernetice sofisticate care exploatează vulnerabilități umane și identități digitale. Identitatea digitală - care cuprinde date personale, acreditări și persoane online - se confruntă cu riscuri fără precedent în această eră. Potrivit rapoartelor, aproape 60% dintre afaceri atribuie breșele de securitate unor acreditări compromise, cifră agravată de tacticile bazate pe AI. 

Amenințări amplificate de AI la adresa identității digitale

AI a remodelat profund peisajul securității cibernetice, în special în domeniul protecției identității digitale. Identitatea digitală se referă la reprezentarea unică a unei persoane sau entități în lumea online, incluzând identificatori personali precum nume de utilizator, parole, date biometrice și tipare comportamentale. Pe măsură ce tehnologiile AI - precum modelele generative, algoritmii de învățare automată și modelele lingvistice mari (LLM-uri) - devin tot mai sofisticate și accesibile, ele au simplificat din păcate criminalitatea cibernetică. Ceea ce odinioară necesita abilități și resurse specializate este acum realizabil de începători care folosesc instrumente gata scrise. 

AI reduce barierele de intrare pentru infractorii cibernetici prin automatizarea sarcinilor complexe, permițând o scalare rapidă și sporind realismul atacurilor. Conform Raportului Digital Defense 2025* al Microsoft, AI îmbunătățește eficiența atacurilor de phishing, atingând rate de până la 54% click-through, comparativ cu 12% pentru încercările tradiționale - o creștere de 4,5 ori - și făcând campaniile de până la 50 de ori mai profitabile atunci când vizează grupuri mari. Această scalabilitate provine din capacitatea AI de a procesa seturi vaste de date din rețelele sociale, breșe de date și registre publice pentru a genera atacuri personalizate. Hackerii exploatează aceste capacități pentru spionaj, fraudă și perturbare. 

Una dintre cele mai răspândite amenințări amplificate de AI este phishing-ul și compromiterea emailurilor de afaceri (BEC). În aceste atacuri, inteligența artificială generativă creează e-mailuri, mesaje sau site-uri extrem de convingătoare, concepute pentru a induce în eroare utilizatorii să dezvăluie informații sensibile. Phishing-ul tradițional se baza adesea pe șabloane generice ușor de identificat. Dar AI permite acum o imitare precisă a stilurilor de scriere, tonurilor și contextelor. De exemplu, LLM-urile pot analiza postările de pe rețelele sociale sau emailurile anterioare ale unei ținte pentru a genera momeli personalizate, cum ar fi impersonarea unui CEO într-un atac BEC pentru a autoriza tranzacții frauduloase.

Variante mai avansate ale phishing-ului includ tehnici precum „ClickFix”, unde AI generează ferestre care îi îndemnă pe utilizatori să dea copy & paste la comenzi malițioase, reprezentând 47% din metodele de acces inițial în atacuri. Bombarding-ul prin email inundă inbox-urile, pregătind terenul pentru phishing vocal (vishing) sau impersonare prin platforme precum Microsoft Teams. În sectoarele financiare, aceste atacuri erodează încrederea, 28% dintre breșe provenind din phishing sau inginerie socială. Phishing-ul multicanal, care combină e-mailul cu SMS sau coduri QR (cunoscut sub numele de quishing), a înregistrat o creștere de 25% de la an la an și o rată de succes cu 42% mai mare decât escrocheriile doar prin e-mail.

Strâns legat este și credential stuffing, care exploatează și mai mult vulnerabilitățile din managementul identității. Credential stuffing-ul implică boți îmbunătățiți de AI care testează perechi furate de nume de utilizator și parolă pe mai multe site-uri, profitând de reutilizarea parolelor. Acești roboți rotesc adresele IP, simulează comportamentul uman pentru a ocoli CAPTCHA-urile și se adaptează în timp real la schimbările de securitate. Raportul Microsoft indică faptul că atacurile bazate pe identitate au crescut cu 32% în prima jumătate a anului 2025, iar password spraying - o variantă cu volum redus - a reprezentat 97% din aceste încercări. Malware-ul Infostealer colectează credențiale pentru revânzare pe dark web, afectând mii de dispozitive lunar.

O amenințare discretă și în creștere apare sub forma identităților sintetice, unde AI combină date reale și fabricate pentru a crea persoane complet false care ocolesc procesele tradiționale de verificare. Instrumente precum FraudGPT - disponibile pe dark web - permit generarea de profiluri complete, inclusiv fotografii, voci și istorice fabricate, pentru scopuri precum spălarea banilor sau furtul de identitate. AI accelerează acest lucru prin procesarea datelor scăpate (peste 3.200 de breșe în SUA în 2024*, care au afectat între 1,6 și 1,7 miliarde de persoane) pentru a evita duplicatele și a învăța din încercările eșuate. Pierderile au crescut de la aproximativ 8 miliarde de dolari în 2020 la peste 30 de miliarde de dolari recent, trecând de la frauda de credit la exploatarea ajutorului guvernamental și a serviciilor bancare online, mai ales în timpul pandemiei.

Exemple de fraudă de identitate sintetică includ folosirea acestor persoane fabricate pentru crearea de conturi bancare frauduloase sau deepfake-uri pentru a anula verificările făcute de bănci și IFN-uri în timpul validării procesului de creditare. Datele Microsoft arată că ID-urile generate de AI au crescut cu 195% la nivel global, boții încercând să creeze 15,9 miliarde de conturi false în prima jumătate a anului 2025, peste 90% dintre acestea fiind rău intenționate. În serviciile financiare, acest lucru subminează autentificarea, cardurile virtuale de credit (care se preconizează să ajungă pe o piață de 60 de miliarde de dolari până în 2030) fiind exploatate pentru fraudă de rambursare. Grupurile vulnerabile, precum vârstnicii și persoanele bolnave, suferă daune, deoarece fragmentele de date furate, cum ar fi CNP-urile și datele din actele de identitate, pot duce la apariția unor credite pe numele acestora.

În cele din urmă, provocările legate de confidențialitate și prejudecățile încorporate adaugă un alt strat de complexitate acestor amenințări. Dependența AI de seturi vaste de date introduce riscuri, deoarece modelele antrenate pe date personale pot dezvălui involuntar informații sensibile sau perpetua prejudecăți. Erodarea confidențialității apare prin colectarea necontrolată a datelor de pe dispozitive IoT, urmărirea web și rețelele sociale, adesea fără consimțământ. Pentru identitatea digitală, AI estompează granițele dintre datele personale și cele non-personale, deducând trăsături precum opinii politice din postări inofensive.

Rolul deepfake-urilor în furtul de identitate

Deepfake-urile, un subset al mediilor sintetice alimentate de inteligență artificială AI și învățare automată, reprezintă una dintre cele mai insidioase amenințări la adresa protecției identității în era digitală. Aceste tehnologii permit crearea de videoclipuri, imagini, audio sau chiar texte hiper-realiste care prezintă evenimente sau afirmații care nu s-au întâmplat niciodată, exploatând încrederea inerentă a umanității în dovezile vizuale și auditive. Evoluând din rețelele adversariale generative (GAN) și alte modele AI, deepfake-urile au trecut de la experimente de nișă la instrumente răspândite pentru atacuri. De la apariția lor în jurul anului 2017, deepfake-urile s-au multiplicat, volumele de conținut crescând cu 900% anual și incidentele detectate înmulțindu-se de zece ori în 2023 față de anul precedent. Această creștere rapidă i-a transformat într-o piatră de temelie a furtului de identitate modern, unde escrocii se dau drept indivizi pentru a fura informații personale, fonduri sau reputații.

Mecanismul de bază al deepfake-urilor implică antrenarea modelelor AI pe seturi vaste de date cu imagini, videoclipuri sau înregistrări vocale ale unei ținte - adesea extrase din rețele sociale sau surse publice. Odată antrenate, aceste modele pot schimba fețele în videoclipuri sau clona voci cu doar trei secunde de audio pentru a obține o potrivire de 85%. Această accesibilitate a democratizat frauda: instrumente care odinioară necesitau expertiză sofisticată sunt acum disponibile la costuri minime, uneori chiar de doar 1$ pentru o clonă vocală de bază. Ca urmare, tentativele de fraudă de identitate folosind deepfake-uri au crescut uimitor, cu 3.000% în 2023. Până în 2025, numărul fișierelor deepfake partajate online este estimat să ajungă la 8 milioane, față de 500.000 cu doar doi ani înainte, subliniind amploarea exponențială a problemei.

Una dintre cele mai alarmante aplicații ale deepfake-urilor în furtul de identitate este în imaginile intime neconsensuale (NCII), care reprezintă 96-98% din tot conținutul deepfake online, iar 99-100% dintre victime sunt femei. Această formă de abuz digital nu doar că provoacă suferință emoțională profundă și prejudicii de reputație, dar facilitează cyberbullying-ul, extorcarea sau doxxing-ul. Victime de profil înalt precum celebritățile Scarlett Johansson și Taylor Swift și-au văzut asemănările suprapuse în conținut explicit, ceea ce a dus la o răspândire largă și traume pe viață. Persoane private, precum activista australiană Noelle Martin, au îndurat traume similare din cauza selfie-urilor modificate, evidențiind modul în care deepfake-urile democratizează hărțuirea.

În domeniul fraudei financiare, deepfake-urile s-au dovedit devastatoare. Escrocheriile de clonare vocală, cel mai frecvent vector datorită simplității și eficienței lor, au afectat 1 din 4 adulți în 2024, iar 1 din 10 a fost vizat personal. Dintre cei care au confirmat pierderi financiare cauzate de clonele vocale, 77% au raportat bani furați. Un exemplu esențial este incidentul din 2019, când o firmă energetică din Marea Britanie a pierdut 220.000 € (243.000 de dolari) după ce escrocii au folosit un audio deepfake cu vocea CEO-ului pentru a autoriza un transfer bancar.

Această tactică a evoluat în atacuri multimodale, combinând audio cu video pentru o înșelăciune mai mare. În februarie 2024, firma de inginerie Arup a căzut victimă unei escrocherii de 25 de milioane de dolari, în care deepfake-ii s-au dat drept directorul financiar și alți directori executivi în timpul unei videoconferințe, instruind un angajat să transfere fonduri în conturile din Hong Kong. Astfel de fraude cu CEO vizează acum cel puțin 400 de companii zilnic, infractorii împărtășind tehnici pe dark web pentru a-și rafina abordările.

Frauda biometrică a înregistrat creșteri deosebit de accentuate, deepfake-urile reprezentând 20% din încercările din 2025 - conform analizelor a peste un miliard de verificări de identitate în 195 de țări. Selfie-urile deepfake au crescut cu 58% în 2025, adesea implicând atacuri de injecție digitală - în creștere cu 40% anual - în care media manipulată este introdusă în sistemele de autentificare. Infractorii folosesc metode precum fotografii cu ecrane, printuri, măști 2D/3D sau videoclipuri redate pe dispozitive, partajate prin rețele subterane pentru a evita detectarea. În sectorul criptomonedelor, care a înregistrat 88% din frauda deepfake detectată în 2023, aceste atacuri ocolesc procesele de cunoaștere a clientului (KYC), permițând identități sintetice și deturnarea conturilor. Platformele fintech au raportat o creștere de 700% a acestor incidente în 2023, cu rate de fraudă de onboarding care au ajuns la 67% în cripto, datorită stimulentelor pentru conturi false în masă.

Grupurile organizate agravează aceste amenințări prin dezinformare. Profilurile generate de GAN au promovat agende politice în Belgia și Liban, în timp ce deepfake-urile ar putea fabrica narațiuni false în alegeri sau simula răpiri pentru răscumpărare. În criminalitatea cibernetică, deepfake-urile permit vishing-ul (voice phishing) pentru a extrage date sensibile precum CNP-uri.

Detectarea umană eșuează în fața deepfake-urilor de înaltă calitate: acuratețea videoclipurilor este de doar 24,5%, deși 60% dintre oameni cred că le pot detecta. Instrumentele de detectare AI, pe măsură ce avansează, pierd eficiența cu 45-50% în scenarii reale. Apar răspunsuri de reglementare: Regulamentul AI din UE impune etichetarea deepfake din august 2025, legea SUA Take It Down (mai 2025) cere retrageri în 48 de ore pentru NCII, legea privind siguranța online din Marea Britanie aplică protecția copilului din iulie 2025, iar legea ELVIS din Tennessee condamnă clonele vocale neautorizate.

AI ca apărător: îmbunătățirea securității cibernetice

Totuși AI servește ca un aliat puternic în securitatea cibernetică, contracarând chiar amenințările create de alte AI-uri. Prin automatizarea proceselor complexe, analizarea unor seturi de date masive și adaptarea la evoluția tiparelor de atac, AI întărește apărarea în moduri care depășesc metodele tradiționale. 

Facilitățile defensive ale AI provin din capacitatea sa de a procesa informații la scară și viteze inaccesibile pentru oameni. Algoritmii de învățare automată, de exemplu, învață din date istorice pentru a identifica anomalii în timp real, cum ar fi comportamentul neobișnuit al utilizatorilor sau vârfurile de trafic de rețea care ar putea indica o breșă. Această abordare proactivă transformă securitatea cibernetică de la reactivă la predictivă, permițând organizațiilor să atenueze riscurile înainte ca acestea să escaladeze. Conform analizelor, sistemele AI pot detecta amenințările cu 60% mai rapid decât instrumentele convenționale, reducând semnificativ potențialele daune cauzate de incidente precum ransomware sau exfiltrarea datelor. În practică, AI se integrează cu infrastructura existentă, cum ar fi sistemele de management al informațiilor și evenimentelor de securitate (SIEM), pentru a corela evenimentele între endpoint-uri, rețele și medii cloud, oferind o perspectivă holistică asupra potențialelor vulnerabilități.

Un domeniu cheie în care AI excelează este detectarea amenințărilor. Metodele tradiționale bazate pe semnături se bazează pe tipare cunoscute, lăsând goluri pentru atacuri noi. AI abordează acest lucru prin tehnici precum analiza comportamentului utilizatorilor și entităților (UEBA), care stabilesc baze pentru activitatea normală și abaterile de semnal. De exemplu, dacă viteza de tastare sau mișcările mouse-ului se schimbă brusc, inteligența artificială poate declanșa pași suplimentari de verificare. Modelele de învățare profundă îmbunătățesc acest aspect prin analizarea datelor nestructurate, cum ar fi conținutul emailurilor sau jurnalele sistemului, pentru a detecta încercările de phishing cu o acuratețe ridicată - adesea atingând rate peste 95% în medii controlate.  

AI permite acțiuni rapide, orchestrate, care limitează breșele în mod eficient. Odată ce o amenințare este detectată, AI poate izola dispozitivele compromise, bloca adrese IP malițioase sau chiar poate anula modificările pentru a restaura sistemele. Inteligența artificială generativă merge mai departe prin simularea scenariilor de atac pentru a testa sistemele de apărare, generând date sintetice pentru modele de antrenament fără a expune informații reale. Platforme precum QRadar Suite de la IBM automatizează fluxurile de lucru, folosind AI pentru a prioritiza răspunsurile în funcție de severitatea amenințării și impactul potențial. Această automatizare este deosebit de valoroasă în abordarea deficitului de talente; cu puțini profesioniști în securitate cibernetică, AI se ocupă de sarcinile de rutină, permițând experților să se concentreze pe investigații complexe. 

Protecția identității reprezintă un alt domeniu critic în care AI consolidează securitatea cibernetică. Biometria comportamentală - factori de monitorizare precum dinamica apăsărilor de taste, analiza mersului prin senzori ai dispozitivelor sau modele vocale - oferă autentificare continuă dincolo de parolele statice. AI analizează aceste semnale pentru a detecta tentative de impersonare, cum ar fi cele care implică deepfake-uri sau autentificări furate. De exemplu, în autentificarea multifactorială (MFA), AI poate evalua nivelurile de risc în timpul sesiunilor și necesită, adaptiv, dovezi mai puternice pentru acțiuni cu miză mare. Cum ar fi tranzacțiile financiare. Totuși, AI trebuie să abordeze prejudecățile inerente; dacă datele de antrenament provin din anumite demografii, acestea pot conduce la rezultate discriminatorii, cum ar fi un număr mai mare de rezultate fals pozitive pentru grupurile subreprezentate. Cadre precum AI Risk Management Framework al Institutului Național de Standarde și Tehnologie ghidează organizațiile în atenuarea acestor riscuri prin guvernanță transparentă și audituri regulate.

Rolul AI în securitatea cibernetică se extinde și la tendințele emergente care promit o reziliență și mai mare. Agenții AI autonomi, de exemplu, câștigă teren pentru gestionarea independentă a unor sarcini precum descoperirea amenințărilor și remedierea, așa cum se vede în FortiAI-Assist de la Fortinet, care combină inteligența artificială agentică cu capabilități generative pentru operațiuni adaptive. Federated Learning, o metodă PET (privacy-enhancing technology) permite modelelor să se antreneze pe date descentralizate, păstrând confidențialitatea și îmbunătățind acuratețea între organizații. 

Considerentele etice sunt esențiale în implementarea apărării AI. Transparența în operațiunile AI - cum ar fi explicarea modului în care modelele ajung la detectări - construiește încredere și respectă reglementări precum Regulamentul AI din UE. Organizațiile trebuie, de asemenea, să investească în echipele de perfecționare pentru a interpreta eficient rezultatele AI, acoperind decalajul în care AI excelează la viteză, dar poate duce lipsă de înțelegere contextuală.

Tendințe viitoare și considerente etice

Privind spre viitor, rolul AI în securitatea cibernetică se va extinde cu sisteme AI agentice care gestionează autonom sarcinile, deși necesită măsuri de protecție pentru a evita riscurile. Criptografia pregătită pentru nivel cuantic va deveni standard, pe măsură ce calculul cuantic amenință criptarea actuală. ID-urile digitale naționale, deși eficiente, ridică îngrijorări pe măsură ce AI învață din biometria scursă, necesitând protecții solide.

Din punct de vedere etic, echilibrarea inovației cu confidențialitatea este esențială. Cadre precum Contractul Social Digital propun integrarea protecțiilor identității în guvernanță pentru a păstra democrația. Colaborarea între părțile interesate - guverne, industrie și mediul academic - va conduce standarde precum blockchain-ul pentru autenticitatea conținutului. Pe măsură ce AI evoluează, apărările adaptive care învață mai repede decât amenințările vor fi vitale, dar supravegherea umană rămâne indispensabilă pentru a aborda prejudecățile și a asigura o protecție echitabilă.

Notă: Toate brand-urile menționate sunt cu titlu de exemple neutre și nu sunt recomandări comerciale.

Surse:
Digital Defense 2025

Fraud GPT and GenAI

Articol publicat în decembrie 2025. 

Informațiile regăsite pe acest blog nu sunt o recomandare de acțiune, sfaturi de investiții, informații juridice sau fiscale și nu reprezintă o ofertă de vânzare/cumpărare a oricărui instrument financiar. Ne-am asigurat că acest articol nu conține informații false sau înșelătoare în momentul publicării, dar nu garantăm exactitatea sau gradul de adevăr al acestuia. ING nu își asumă nicio răspundere pentru orice pierdere directă, indirectă sau consecință survenită în urma aplicării informațiilor din acest articol, cu excepția cazului în care se specifică altfel. Orice opinii, puncte de vedere sau estimări aparțin exclusiv autorilor și pot fi modificate fără notificare.

Distribuirea acestei publicații poate fi restricționată prin lege sau reglementări, iar persoanele care intră în posesia acesteia au obligația de a se informa și a respecta restricțiile impuse.
Articolele publicate pe acest blog se supun protecției drepturilor de autor, astfel încât conținutul nu poate fi reprodus, distribuit sau publicat de nicio persoană în niciun scop fără acordul prealabil expres al ING și menționarea sursei. Toate drepturile sunt rezervate.

Tudor Galos

Tudor este consultant în protecția datelor având o experiență de peste 20 de ani în business. De șase ani conduce cabinetul de consultanță Tudor Galoș Consulting, lucrând cu o echipă care adresează peste 200 de clienți din Europa, Statele Unite, Marea Britanie și Orientul Mijlociu. Are o certificare europeană de Data Protection Officer obținută la European Center for Privacy and Cybersecurity din cadrul Maastricht University – Faculty of Law, este autorul unui curs DPO acreditat la Ministerul Muncii și Solidarității Sociale și a două cursuri online de GDPR cu peste 15.000 de participanți. Este speaker la evenimente internaționale unde prezintă soluții ce adresează cele mai noi provocări de privacy din domeniile Big Data, Inteligență Artificială, Cloud Computing, Blockchain.