Cum sunt folosite inteligența artificială și deepfake ca arme în revenge porn/ ”Este vorba de cultura violului. Le poate fi greu să nege că nu sunt chiar ele”/ Riscurile și avantajele folosirii AI-ului/ Avertismentele oficialilor

azbunare-porno-revenge-filme-deepfake-inteligenta-artificiala-e1677310037259-640x400

În cadrul unui studiu realizat de cercetătorii de la Universitatea California, Berkeley și intitulat „Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News”, au fost analizate efectele deepfake-urilor asupra opiniei publice și a încrederii în știri. 

Astfel, participanților le-au fost prezentate două videoclipuri: un videoclip real și un videoclip deepfake, manipulat pentru a prezenta o anumită persoană spunând și făcând lucruri care nu s-au întâmplat. Rezultatele au arătat că participanții au fost mai înclinați să creadă în știri false prezentate sub formă de deepfake, decât în știri autentice.

Pe platforma de socializare TikTok au apărut o mulțime de videoclipuri realizate cu ajutorul inteligenței artificiale, avându-i protagoniști pe ultimii președinți ai Statelor Unite ale Americii – respectiv Joe Biden, Barack Obama și Donald Trump. Cei trei ”joacă” MineCraft și își ”vorbesc” unul altuia, ironizându-se în timpul ”competiției”. 

Asemănările între vocile reale ale președinților și videoclipurile generate cu ajutorul inteligenței artificiale sunt atât de bine făcute încât au devenit virale, adunând milioane de vizualizări la videoclipuri.

Victimă deepfake: „Cineva mi-a luat fața, a pus-o pe un videoclip porno și a făcut să pară că sunt eu”

Un exemplu concret al folosirii tehnologiei deepfake în mod distructiv este cazul lui Kate, o femeie din Marea Britanie care a găsit videoclipuri pornografice cu fața ei în ele. Potrivit BBC, femeia a găsit videoclipurile în timp ce stătea pe Twitter: „Cineva mi-a luat fața, a pus-o pe un videoclip porno și a făcut să pară că sunt eu”, a declarat aceasta pentru BBC.

Inteligența artificială a fost folosită pentru a manipula digital un videoclip care exista deja iar astfel, fața actriței porno a fost înlocuită cu fața femeii, dând senzația că videoclipul este complet real.

Femeia este fondatoarea campaniei #NotYourPorn, campanie ce a luat naștere în urma experienței extraordinar de neplăcute pe care femeia în vârstă de 30 de ani a simțit-o. Drept urmare acțiunilor sale, unul dintre cele mai faimoase site-uri de pornografie din lume a fost nevoit să elimine toate videoclipurile încărcate pe site de către utilizatori care nu erau verificați, deci practic majoritatea conținutului site-ului.

Avertismentele oficialilor

În „evaluarea anuală a amenințărilor la nivel mondial”, în ultimii ani, înalți oficiali americani din domeniul informațiilor au avertizat în legătură cu amenințarea reprezentată de așa-numitele deepfakes – videoclipuri false convingătoare realizate cu ajutorul inteligenței artificiale, arată o analiză CNN.