Monitorul de Botosani
MONITORUL de BOTOŞANI LUNI, 10 MARTIE 2025 15 CALEIDOSCOP C a într-un film SF, infractorii folo- sesc inteligența artificială (AI) pentru a crea clone vocale ale membrilor familiei, prie- tenilor și colegilor tăi, cu scopul de a te înșela. Un sondaj realizat în 2023 de compania de sof- tware antivirus McAfee a descoperit că un sfert din- tre adulții din șapte țări au fost expuși la o formă de înșelătorie cu voce gene- rată de AI. De asemenea, sondajul a relevat că 77% dintre victime au pierdut bani în urma acestor inte- racțiuni. Creșterea clonelor vocale generate de AI a dus furtul de identitate la un nou nivel. Iată cum te poți proteja pe tine și banii tăi. Cum folosesc escrocii AI pentru a crea clone vocale? Procesul funcționează astfel: escrocul găsește o înregistrare a vocii unei persoane, de obicei pe rețelele sociale. Conform unui studiu realizat de McAfee, escrocii au nevoie de doar 3 secunde de înregistrare pentru a crea o imitație vocală decentă. „Cu cât proba este mai lungă, cu atât falsul este mai precis”, explică Neal O’Farrell, fondatorul „Think Security First!” și al „Identity Theft Coun- cil”, o organizație non- profit care educă publicul despre furtul de identita- te. După ce infractorul obține un eșantion vocal, transformarea acestuia într-o voce credibilă depinde de nivelul său de sofisticare și de echipa- mentul utilizat. „Dacă nu există deja un clip disponibil, cum ar fi un videoclip pe rețelele sociale, un simplu apel telefonic poate fi sufi- cient”, spune O’Farrell, care este și membru al CNET Expert Review Board. „Dacă ținta răs- punde cu ceva de genul «Nu, îmi pare rău, nu există nimeni cu acest nume aici, iar eu locuiesc aici de cel puțin 10 ani», acea înregistrare poate fi suficientă.” Escrocul procesează apoi înregistrarea într-un program AI care creează clonarea vocii. La înce- put, hoțul poate introduce manual replici pentru AI, dar în funcție de nivelul de sofisticare, programul poate ajunge să facă cea mai mare parte a muncii. O’Farrell explică fap- tul că modele lingvistice avansate, care învață limba, și software-ul text- to-speech, pot fi utilizate pentru a comunica direct cu victima. Cu toate acestea, deoa- rece escrocii știu că un schimb de replici prea lung poate ridica suspi- ciuni, ei folosesc de obi- cei doar câteva propoziții scurte pentru a se da drept o persoană apropiată. Este legală utilizarea AI în aceste cazuri ? Legislația privind utili- zarea AI pentru a imita vocea cuiva este încă neclară, având în vedere noutatea acestei tehnolo- gii. Totuși, dacă este folo- sită pentru a obține bani, în general, acest lucru este ilegal. Atenţie la voci le clonate! Există mai multe cate- gorii de persoane, inclu- siv din cercul tău apro- piat, care sunt ținte ideale pentru infractori care vor să creeze clone vocale. Persoane apropiate Probabil ai auzit de înșelătoria „nepotul la ananghie”, în care un escroc tânăr sună o per- soană în vârstă și pretinde că este nepotul său, aflat în închisoare și având nevoie de bani pentru cauțiune. Bunicul sau bunica trimite apoi banii pentru a-l ajuta. În decembrie 2024, Biroul Federal de Investi- gații (FBI) a emis un anunț public de avertizare despre progresele tehno- logiei AI, care face ca ast- fel de escrocherii să fie din ce în ce mai greu de detectat. Printre acestea se numără și înșelătoriile în care criminalii creează clipuri audio pentru a imita vocea unui membru apropiat al familiei. Șeful tău Dacă șeful tău te-ar suna și ți-ar cere să trans- feri bani dintr-un cont al companiei în altul, proba- bil ai face-o. Chiar dacă ți se pare puțin probabil ca un escroc să cunoască relația ta cu superiorul tău, el poate obține această informație de pe platfor- me precum LinkedIn. Agenţi imobili ari Escrocii folosesc AI pentru a imita voci de agenți imobiliari. Deoare- ce cumpărarea unei case implică transferuri mari de bani către creditori, un infractor se poate da drept agentul tău și te poate convinge să transferi o sumă mare într-un cont pe care îl controlează. Poate părea un scena- riu puțin probabil, dar cri- minalii își aleg țintele analizând recenziile onli- ne sau rețelele sociale. De exemplu, pot extrage numele clienților unui agent imobiliar de pe pagina sa de Google și îi pot contacta, încercând să îi înșele. Avocaţi Avocații sunt îngrijo- rați de faptul că infracto- rii ar putea începe să le imite vocile folosind AI. Exact ca în cazul agenți- lor imobiliari, un escroc ar putea lăsa un mesaj vocal în care pretinde că este avocatul tău și îți cere să îi trimiți urgent bani. Contabili sau consilieri financiari Dacă primești un apel urgent de la un consilier financiar sau contabil care îți cere să trimiți bani imediat – mai ales sub formă de mandat poștal, criptomonede sau orice metodă diferită de cea obișnuită – ar trebui să fii suspicios. Ia o pauză și gândește- te: consilierul tău finan- ciar ar recomanda așa ceva? Cum să recunoști o înșelătorie vocală Vestea bună este că nu este foarte greu să depis- tezi o astfel de escroche- rie dacă știi la ce să fii atent. 1. Conversația este foarte scurtă În înșelătoriile cu voci generate de AI, mesajul este de obicei scurt și urgent, de exemplu: „Mamă, sunt Denisa. Sunt în închisoare. Am nevoie de bani pentru cauțiune. Îți dau legătura cu ofițerul, care îți va explica totul. ” „Ofițerul” îți va spune unde trebuie să trimiți banii. Dacă vocea îți pare cunoscută, dar ceva nu se potrivește, acesta este pri- mul semnal de alarmă. Iar dacă „ofițerul” insistă să trimiți bani rapid, este al doilea semnal de alarmă. Ce trebuie să faci? Închide imediat, indife- rent dacă îți spun să nu faci asta, și sună direct persoana respectivă pen- tru a verifica situația. 2. Persoana dragă nu se comportă ca de obicei Un criminal poate antrena AI să imite vocea și chiar opiniile politice sau stilul de vorbire al unei persoane. Totuși, dacă ceva ți se pare în neregulă și urmează să trimiți o sumă mare de bani, ascultă-ți instinctul: închide și sună direct per- soana respectivă. 3. Nu cunosc parola de siguranță O metodă eficientă de protecție este să stabilești din timp un cuvânt de siguranță cu familia, prie- tenii și orice persoană care îți gestionează fina- nțele. Dacă te afli într-o ast- fel de situație, întreabă simplu: „Care este cuvân- tul nostru de siguranță?” 4. Apelul vine de la un număr necunoscut Dacă un „nepot” te sună dintr-o închisoare, probabil că numărul nu îți va fi familiar. Dar dacă primești un apel de la un „consilier financiar” sau un „agent imobiliar” de la un număr necunoscut, acesta este un semnal de alarmă. 5. Ți se cere să plă- tești prin carduri cadou sau criptomonede Dacă cineva îți cere bani sub formă de carduri cadou sau criptomonede, probabil că este o escro- cherie. Ce să faci dacă ai fost victima unei escrocherii cu voce generată de AI? Dacă ai fost păcălit, este important să acțio- nezi rapid. Urmează acești pași: ✅ Anunță poliția și raportează frauda. ✅ Informează banca și instituțiile financiare. Dacă ai oferit detalii des- pre card, contactează imediat banca pentru a bloca tranzacțiile suspec- te. ✅ Ia în considerare un serviciu de protecție a identității. Aura este recomandarea CNET pentru protecția împotri- va furtului de identitate. ✅ Contactează agenții- le de raportare a creditu- lui pentru a îngheța con- turile și pentru a monito- riza eventuale activități suspecte. ✅ Blochează și rapor- tează numărul infractoru- lui. ✅ Anunță persoana a cărei voce a fost clonată, astfel încât să poată lua măsuri de protecție. În acest fel, și alții pot evita să fie păcăliți de aceeași escrocherie. Escrocii pot clona voci pentru a te face să crezi că o persoană dragă este în peri- col sau că are nevoie imediată de bani Dacă un membru al familiei te sună să-şi ceară bani, ar putea fi o înșelătorie cu voce generată de AI, arată jurnaliștii de la cnet.com. Voci familiare generate de AI pentru ţepe cu bani
Made with FlippingBook
RkJQdWJsaXNoZXIy ODg1NTM=