Il Garante interviene sui deepfake

99

Il Garante per la protezione dei dati personali ha predisposto un vademecum per sensibilizzare gli utenti sui rischi connessi a una nuova tecnologia, che si basa sulla manipolazione di file sonori o di immagini per indurre in errore chi li riceve.

Si tratta dei cosiddetti deepfake sempre più diffusi grazie alla disponibilità di app e software che rendono possibile la loro realizzazione grazie a software molto ben elaborati e sofisticati, attraverso un comune smartphone.

I deepfake consistono in foto, video e audio creati grazie a software di intelligenza artificiale (AI) che, partendo da contenuti reali (immagini e audio), riescono a modificare o ricreare, in modo estremamente realistico, le caratteristiche e i movimenti di un volto o di un corpo e a imitare fedelmente una determinata voce. Questo è possibile grazie ad una tecnica basata sull’implementazione di algoritmi di apprendimento automatico per la creazione di immagini e video combinati tra loro, file audio generati o modificati (cd. “skin vocali” o “cloni vocali”) mediante sistemi che rendono credibili e convincenti (per la percezione che ne hanno gli utenti) i relativi contenuti multimediali veicolati, con l’intento di ingannare il pubblico facendogli credere che gli stessi siano reali.

Come chiarisce il documento del Garante i deepfake possono riguardare politici o opinion leader, con lo scopo di influenzare l’opinione pubblica. Video deepfake possono ad esempio essere mostrati o inviati agli elettori che simpatizzano per un determinato personaggio politico, rappresentandolo mentre compie azioni poco lecite o mentre si trova in situazioni sconvenienti, allo scopo di screditarlo ed influenzare le opinioni o il voto. In questi casi il deepfake può privare le persone della cosiddetta “autodeterminazione informativa” e incidere sulla loro libertà decisionale. Ed ancora video deepfake possono essere creati ad hoc per realizzare atti di cyberbullismo, che hanno come vittime soprattutto giovani.

Infine, il deepfake può essere utilizzato per crimini informatici, per attività telematiche illecite, come lo spoofing (il furto di informazioni che avviene attraverso la falsificazione di identità di persone o dispositivo, in modo da ingannare altre persone o dispositivi e ottenere la trasmissione di dati), il phishing e il ransomware.

Nel vademecum pubblicato il Garante, per prima cosa, fa un appello agli utenti affinchè utilizzino attenzione e responsabilità evitando di diffondere in modo incontrollato immagini personali o dei propri cari che, è bene ricordare, potrebbero rimanere online per sempre e che, anche nel caso in cui si decida di cancellarle, qualcuno potrebbe già essersene appropriato.

L’attenzione serve a riconoscere un deepfake. Ci sono elementi che aiutano: l’immagine può appare pixellata (cioè un pò “sgranata” o sfocata); gli occhi delle persone possono muoversi a volte in modo innaturale; la bocca può apparire deformata o troppo grande mentre la persona dice alcune cose; la luce e le ombre sul viso possono apparire anormali. In caso di dubbi sul fatto che un video o un audio siano un deepfake realizzato all’insaputa dell’interessato, occorre assolutamente evitare di condividerlo (per non moltiplicare il danno alle persone con la sua diffusione incontrollata). E si può magari decidere di segnalarlo come possibile falso alla piattaforma che lo ospita (ad esempio, un social media).

Se si ritiene che il deepfake sia stato utilizzato in modo da compiere un reato o una violazione della privacy, ci si può rivolgere, a seconda dei casi, alle autorità di polizia (ad esempio, alla Polizia postale) o al Garante per la protezione dei dati personali.

Advertisement