Poliţia Română atrage atenţia asupra pericolelor inteligenţei artificiale generative, arătând că videclipurile false, create cu AI, au devenit instrumente preferate de autorii infracţiunilor informatice, dar sunt folosite şi pentru manipulare, distrugerea reputaţiei unei persoane, provocarea de traume emoţionale sau inducerea în eroare cu privire la adevăruri ştiinţifice.
Poliţiştii fac mai multe recomandări pentru cetăţeni pentru a nu cădea în astfel de ”capcane”. Ei atrag atenţia asupra unor persoane care se recomandă a fi din Poliţia Română şi care încearcă să inducă în eroare populaţia.
Potrivit Poliţiei Române, inteligenţa artificială (AI) a avansat în ultimii ani, permiţând crearea de videoclipuri şi imagini extrem de realiste. În prezent, aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă faptul că acestea sunt utilizate ca un instrument de inducere în eroare a oamenilor, cu scopul de a obţine câştiguri financiare nelegale.
”Deepfake-urile (videoclipuri false create cu AI) şi imaginile generate artificial au devenit instrumentele preferate ale autorilor infracţiunilor din domeniul criminalităţii informatice, promovate masiv pe reţelele de socializare. Cetăţenii de bună-credinţă sunt induşi în eroare de aceste „capcane” crezând că văd celebrităţi, experţi financiari sau persoane aflate la nevoie”, arată sursa citată, într-un comunicat de presă.
Poliţiştii prezintă cele mai frecvente moduri de operare întâlnite în anul 2025:
Trading scam şi investment fraud
Videoclipuri deepfake cu oameni de afaceri, de notorietate sau cu politicieni care ”recomandă” platforme de investiţii crypto, forex sau ”inteligenţă artificială miraculoasă” care promit multiplicarea banilor peste noapte. Victimele sunt direcţionate către site-uri false unde depun bani spre a fi investiţi şi care, în realitate, ajung la autori prin diferite scheme de transfer de monede (virtuale sau fiat).
Scam-uri caritabile
Deepfake-uri cu copii bolnavi, victime ale dezastrelor sau celebrităţi care cer donaţii urgente. Oamenii donează, prin intermediul unor link-uri false, iar sumele de bani ajung direct la infractori.
Romance scam îmbunătăţit cu ajutorul AI
Utilizarea de către infractori a unor profiluri false cu poze şi videoclipuri generate de AI cu persoane atractive din punct de vedere al aspectului şi caracterului, prin intermediul cărora dezvoltă relaţii emoţionale, apoi cer bani pentru ”urgenţe medicale” sau ”bilete de avion”.
CEO/CFO fraud (Business E-mail Compromise evoluat)
Utilizarea de către infractori de video-call-uri deepfake în care ”şeful” cere transferuri urgente de bani.
Impersonare celebrităţi pentru produse false
Deepfake-uri cu diverse personalităţi care ”oferă gratuit” produse.
”Potrivit statisticilor din anul 2025, tentativele de fraudă cu deepfake au crescut foarte mult pe fondul avansării tehnologiei bazate pe inteligenţă artificială, iar pierderile financiare globale se ridică la zeci de miliarde de dolari, anual”, atrage atenţia Poliţia Română…… Citeste Intreg Articolul
