Deepsukebe – Un sito Web che utilizza l’apprendimento automatico per trasformare rapidamente foto innocue di donne, famose e comuni, in nudi realistici e deepfake sta attirando a sé indignazione e milioni di visualizzazioni di pagina. Il sito, aperto un anno fa, ha raccolto oltre 38 milioni di visite dall’inizio del 2021, secondo l’Huffington Post, e cinque milioni solo a giugno, secondo BBC News.
HuffPost ha rifiutato di nominare il sito web, ma la BBC lo ha identificato come Deepsukebe. Entrambi i media hanno raccontato che il sito ha per missione «far avverare tutti i sogni degli uomini».
Sulla sua pagina Twitter, ora sospesa, Deepsukebe si è definito un «nudificatore sfruttato dall’intelligenza artificiale». Afferma di non salvare le foto false che genera, ma attraverso un “programma di incentivi” premia chi condivide i link dei loro deepfake.
I paesi con più utenti
Gli utenti che raccolgono un numero sufficiente di clic possono «spogliare» un maggior numero di immagini più velocemente. (Gli utenti possono anche pagare una tariffa mensile in criptovaluta per aggirare il limite di un’immagine ogni due ore.)
«Non si sa chi ci sia dietro il sito, che è pieno di errori di ortografia e sintassi; così come non è chiaro dove abbiano la sede», ha scritto il giornalista tecnico di HuffPost Jesselyn Cook.
Il mese scorso, gli Stati Uniti sono stati di gran lunga la principale fonte di traffico del sito, seguiti da Thailandia, Taiwan, Germania e Cina. I post di Medium ora cancellati che mostravano come utilizzare il sito presentavano esclusivamente immagini prima e dopo di donne asiatiche.
Dopo che HuffPost ha contattato il suo provider host, IP Volume Inc., lunedì il sito DeepSukebe è stato interrotto brevemente. Scamalytics, una società anti-frode informatica utilizzata da molti siti di incontri online, ha classificato IP Volume Inc. «un ISP potenzialmente ad alto rischio di frode».
Deepsukebe
«Gestiscono 14.643 indirizzi IP, quasi tutti in esecuzione server, VPN anonime e proxy pubblici», afferma il rapporto. «Applichiamo un punteggio di rischio di 43/100 a IP Volume inc, il che significa che del traffico web in cui abbiamo visibilità, circa il 43% è sospettato di essere potenzialmente fraudolento».
In meno di 24 ore, Deepsukebe è tornato online con un nuovo provider ISP. Il logo dell’azienda è una stella con un occhio in mezzo, con lo slogan: «Cerchiamo la verità, mettiamo a nudo i falsi, neghiamo le bugie».
Una dichiarazione sul sito web di Deepsukebe afferma che il nudificatore è un «modello di intelligenza artificiale all’avanguardia» sviluppato con milioni di punti dati e anni di ricerca, inclusi mesi di addestramento del modello di intelligenza artificiale.
«DeepSukebe è nato bruciando enormi quantità di tempo e denaro», si legge in un inglese stentato. Ma Roy Azoulay, fondatore e CEO di Serelay, che verifica le risorse video e foto, ha detto a DailyMail.com che la tecnologia utilizzata per spogliare le immagini come fa Deepsukene è disponibile in «documenti pubblicati e librerie open source».
La tecnologia utilizzata per spogliare le immagini
È a causa di questa facile disponibilità che «c’è molto poco che si può fare in termini di protezione o per mantenere questa tecnologia fuori dalle mani di utenti malintenzionati», ha affermato Azoulay. Ha detto che le soluzioni dovrebbero provenire dai legislatori o dalla moderazione da parte di siti come Google, Facebook, Twitter e Telegram.
Facebook ha bloccato l’URL del sito dalla sua piattaforma dopo essere stato informato della sua natura, ha riferito HuffPost, e Twitter ha sospeso il suo account. Inizialmente, i video porno deepfake si concentravano principalmente su celebrità femminili, perché per inserirle in una scena dovevano esserci una quantità significativa di filmati disponibili. Ma ora, le foto porno deepfake possono essere realizzate con una sola immagine di qualsiasi donna. (Alle immagini di uomini vengono dati solo organi sessuali femminili.)
Sebbene i falsi nudi di celebrità siano comuni, «la stragrande maggioranza delle persone che utilizzano questi [strumenti] vuole prendere di mira le persone che conosce», ha detto a HuffPost l’esperto di Deepfake Henry Ajde.
Deepfake Sensity
E la crisi sta crescendo in modo esponenziale: la società di ricerca Deepfake Sensity AI riferisce che il numero di video deepfake è raddoppiato ogni sei mesi dal 2018. Un’attenzione significativa è stata data ai deepfake di politici e celebrità; ma la stragrande maggioranza si rivolge alle donne, secondo Sensity AI: da dicembre 2018, tra il 90 e il 95 percento dei deepfake sono falsi nudi di donne.
«Questo è un problema di violenza contro le donne», ha detto a Technology Review a febbraio Adam Dodge, il fondatore di EndTAB, un’organizzazione no profit che educa le persone sugli abusi abilitati dalla tecnologia.
«È uno strumento perfetto per qualcuno che cerca di esercitare potere e controllo su una vittima». Come spesso accade, la legge è dietro la tecnologia; i legislatori negli Stati Uniti e in Gran Bretagna stanno lavorando per vietare il porno deepfake non consensuale. Ma molti dei loro colleghi non comprendono la tecnologia o sostengono che le normative proposte sono eccessivamente ampie o inapplicabili.
«Attualmente il Regno Unito non ha leggi che si rivolgono specificamente ai deepfake. E non esiste un “diritto di proprietà intellettuale deepfake” che possa essere invocato in una controversia»; secondo un articolo apparso sull’edizione di marzo di The National Law Review.
Il Deepfakes Accountability Act
«Allo stesso modo, il Regno Unito non ha una legge specifica che protegga l”immagine’ o la “personalità” di una persona. Ciò significa che il soggetto di un deepfake deve fare affidamento su un miscuglio di diritti. Che non sono né sufficienti né adeguati per proteggere l’individuo in questa situazione».
Negli Stati Uniti, il Deepfakes Accountability Act del 2019, che affrontava sia i deepfake politici che il porno non consensuale, non è riuscito a uscire dalla commissione. L’attrice Scarlett Johansson, l’obiettivo del porno deepfake visto milioni di volte, sostiene che ha poco senso perseguire i colpevoli.
«Penso che sia una ricerca inutile, legalmente, soprattutto perché Internet è un vasto buco nero di oscurità che si autodivora», ha detto al Washington Post nel 2018.
«Ovviamente, se una persona ha più risorse, può impiegare varie forze per costruire un muro più grande attorno alla propria identità digitale», ha aggiunto. «Ma niente può impedire a qualcuno di tagliare e incollare la mia immagine o quella di chiunque altro su un corpo diverso e farlo sembrare stranamente realistico quanto desiderato. Fondamentalmente non ci sono regole su Internet perché è un abisso che rimane praticamente senza legge».
Leggi anche: Nardella e Musk
www.facebook.com/adhocnewsitalia
Seguici su Google News: NEWS.GOOGLE.IT