Actualitate
Autor:
Dana Barcan
Inteligenta artificiala recreeaza metoda accidentul
FOTO: Europa Libera
Escrocii știu deja cum să folosească inteligența artificială în avantajul lor: au făcut metoda accidentul mult mai eficientă. Până acum oamenii mai puteau identifica înșelătoriile, astfel încăt unii reușeau să nu se lase păcăliți, dar în prezent, cu ajutorul tehnologiei deepfake, aceștia pot fi mai ușor de înșelat.
Pănă acum, prin metoda tradițională, escrocii sunau la întâmplare sau targetat oameni cărora le spuneau că un membru al familiei sau un apropiat a suferit un (presupus) accident. Automat acestora li se cereau bani. Mulți escroci au reușit, prin această metodă, să obțină de-a lungul timpului, sume mari de bani și să păcălească în special oamenii în vârstă.
În metoda bazată pe AI, escrocii se folosesc de inteligența artificială pentru a reproduce vocile persoanelor, ”implicate” în accident, făcând înșelătoria mult mai realistă. Astfel, victimele pot fi păcălite să ofere bani sau alte obiecte de valoare. Pentru aceasta escrocii nu trebuie să fie experți în IT, ci doar să aibă un computer și o conexiune bună la internet.
Tehnologia folosită este cea deepfake, uzuală în aplicații precum FaceApp și poate fi utilizată pentru manipularea imaginilor. „Un «deepfake» e o imagine, un videoclip, o voce sau un text creat cu inteligența artificială. Conținutul «Fake», generat de computer este dificil de diferențiat de media generată de oameni”.
Numărul incidentelor care implică tehnologia deepfake a crescut de zece ori în perioada 2022- 2023. România este pe locul al doilea, după Belgia, în topul țărilor europene, având cea mai mare creștere a fenomenului deepfake în perioada 2022 - 2023. Pe următoarele poziții sunt Slovacia, Portugalia și Ungaria.
Pe aplicația TikTok au fost virale în ultima vreme videoclipuri deepfake cu artiști, politicieni, șefi de stat și alte persoane publice. Un creator de conținut le-a explicat urmăritorilor cum pot evita înșelătoriile care folosesc inteligența artificială. Acesta sfătuiește urmăritorii să seteze împreună cu părinții un cuvânt sau o frază cheie pe care să nu o mai știe nimeni altcineva.
Cazurile de înșelăciune sunt tot mai multe în ultimul timp. Inteligența artificială poate prelua vocea și poate suna părinții, fabricând un scenariu de răpire sau accident și cerându-le victimelor o sumă de bani. Totul e atât de credibil, din moment ce este vocea copilului, încât părinții pot să cadă ușor în plasa acestei înșelătorii.
Cuvântul cheie pe care îl setezi cu ai tăi poate să scoată din ecuație înselătoria. În eventualitatea acelui telefon, venit din partea escrocilor, părinții se pot prinde dacă e pe bune sau e scam. Directoratul Național de Securitate Cibernetică recomandă, în cazul videoclipurilor, pemtru identificarea unui deepfake,antenție sporită la: sincronizare necorespunzătoare a buzelor clipitul nefiresc, mișcări bâlbâite, umbre lipsă și iluminare nefirească, părul nemișcat sau mișcarea nefirească a părului. În aceste situații creierul simte că ceva nu este natural.
Tags:
inteligenta artificială
metoda accidentul
inșelăciune