Connect with us

Tecnologia

Il falso porno dell’AI porta a vere e proprie molestie nelle scuole superiori statunitensi

Published

on

Quando Ellis, una quattordicenne del Texas, si è svegliata una mattina di ottobre con diverse chiamate perse e messaggi, tutti riguardavano la stessa cosa: immagini di lei nuda che circolavano sui social media.

Il fatto che non avesse realmente scattato le foto non faceva differenza, poiché l’intelligenza artificiale rende i cosiddetti “deepfakes” sempre più realistici.

Le immagini di Ellis e di un’amica, anch’essa vittima, sono state prelevate da Instagram, i loro volti sono stati poi collocati su corpi nudi di altre persone. Anche altri studenti – tutte ragazze – sono stati presi di mira e le foto composte sono state condivise con altri compagni di classe su Snapchat.

“Sembrava reale, come se i corpi fossero reali”, ha detto all’AFP. “E ricordo di aver avuto molta, molta paura… Non ho mai fatto nulla del genere”

Con il boom dell’AI, è cresciuta anche la pornografia deepfake, con immagini e video iperrealistici creati con un minimo sforzo e denaro – portando a scandali e molestie in diverse scuole superiori negli Stati Uniti, mentre gli amministratori lottano per rispondere in mancanza di una legislazione federale che vieti questa pratica.

“Le ragazze hanno pianto, e hanno pianto per sempre. Si vergognavano molto”, ha detto Anna Berry McAdams, madre di Ellis, che è rimasta scioccata dall’aspetto realistico delle immagini. “Non volevano andare a scuola”

Advertisement

‘Uno smartphone e qualche dollaro’

Anche se è difficile quantificare la diffusione dei deepfakes, la scuola di Ellis fuori Dallas non è la sola.

Alla fine del mese, è scoppiato un altro scandalo di nudi falsi in una scuola superiore nello Stato nordorientale del New Jersey.

“Succederà sempre più spesso”, ha detto Dorota Mani, la madre di una delle vittime, anche lei di 14 anni.

Ha aggiunto che non c’è modo di sapere se i deepfakes pornografici possano circolare su Internet a propria insaputa, e che spesso le indagini nascono solo quando le vittime parlano.

“Molte vittime non sanno nemmeno che ci sono delle immagini e non sono in grado di proteggersi, perché non sanno da cosa”

Allo stesso tempo, gli esperti affermano che la legge è stata lenta a mettersi al passo con la tecnologia, anche se le versioni più crude della pornografia fittizia, spesso incentrate sulle celebrità, sono esistite per anni.

Ora, però, chiunque abbia postato qualcosa di innocente come una foto di testa su LinkedIn può essere una vittima.

Advertisement

“Chiunque lavori in questo spazio sapeva, o avrebbe dovuto sapere, che sarebbe stato utilizzato in questo modo”, ha dichiarato all’AFP Hany Farid, professore di informatica presso l’Università della California, Berkeley.

Il mese scorso, il Presidente Joe Biden ha firmato un ordine esecutivo sull’IA, invitando il Governo a creare barriere di sicurezza “contro la produzione di materiale pedopornografico e contro la produzione di immagini intime non consensuali di persone reali”

E se in molti casi si è rivelato difficile rintracciare i singoli creatori di certe immagini, questo non dovrebbe impedire alle aziende di AI che le hanno realizzate o alle piattaforme di social media in cui le foto sono state condivise di essere ritenute responsabili, afferma Farid.

Ma non esiste una legislazione nazionale che limiti il deep fake porn, e solo una manciata di Stati ha approvato leggi che lo regolamentano.

“Anche se il tuo volto è stato sovrapposto a un corpo, il corpo non è realmente tuo”, ha detto Renee Cummings, un’etica dell’AI.

Questo può creare una “contraddizione nella legge”, ha detto all’AFP la professoressa dell’Università della Virginia, in quanto si può sostenere che le leggi esistenti che vietano la distribuzione di foto sessuali di qualcuno senza il suo consenso non si applicano ai deepfake.

E mentre “chiunque abbia uno smartphone e qualche dollaro” può creare le immagini, utilizzando un software ampiamente disponibile, molte delle vittime – che sono principalmente giovani donne e ragazze – “hanno paura di renderle pubbliche”.

Advertisement

Il porno deepfake “può distruggere la vita di una persona”, ha detto Cummings, citando le vittime che hanno sofferto di ansia, depressione e Disturbo Post-Traumatico da Stress.

Foto false, traumi reali

In Texas, Ellis è stato interrogato dalla polizia e dai funzionari scolastici. Ma i sistemi educativi e giudiziari sembrano essere stati colti alla sprovvista.

“Mi distrugge il fatto che non ci siano le condizioni per dire: ‘Sì, questa è pornografia infantile’”, ha detto Berry McAdams, sua madre.

Il compagno di classe dietro le foto di Ellis è stato temporaneamente sospeso, ma Ellis – che in precedenza si era descritta come socievole ed estroversa – rimane “costantemente piena di ansia” e ha chiesto di cambiare scuola.

“Non so quante persone avrebbero potuto salvare le foto e inviarle. Non so quante foto abbia fatto”, dice.

“Molte persone avrebbero potuto riceverle”

Sua madre, nel frattempo, si preoccupa se – o, data la longevità di Internet, quando – le foto potrebbero riemergere.

Advertisement

“Questo potrebbe influenzarli per il resto della loro vita”, dice.