foto-fake:-il-bello-(e-il-brutto)-dell’intelligenza-artificiale

Foto fake: il bello (e il brutto) dell’intelligenza artificiale

Sono false ma sembrano vere, incredibilmente vere. Grazie all’intelligenza artificiale chiunque potrebbe apparire in fotografie «fake» a propria insaputa, magari in situazioni particolari o inappropriate. È successo recentemente con le immagini del finto arresto di Donald Trump e Putin o lo scatto del Papa vestito con un improbabile piumino alla moda

Un’immagine «fake» di Papa Francesco con un improbabile piumino

Sono solo i casi più recenti ma tutto lascia supporre che sia l’inizio di una nuova (divertente) tendenza o forse di una nuova, preoccupante, ondata di fake news. Le immagini artificiali, generate dai computer, sono infatti così realistiche da essere quasi impossibili da distinguerle con quelle genuine. Rispetto al passato dove i fotomontaggi avvenivano con la perizia e la pazienza di grafici molto esperti, ora sono il risultato di calcoli molto sofisticati svolti in pochi secondi dall’AI.

Il merito è di software come Midjourney, Dawn AI, Dall-E 2, Stable Diffusion, sono strumenti potentissimi per generare immagini di ogni tipo, generalmente utilizzate da creativi, fotografi, grafici ma potenzialmente alla portata di chiunque, anche mal intenzionati che vogliono realizzare contenuti come le immagini false che stanno inondando la rete. 

In alcuni casi eclatanti, come quelli più recenti, dietro alle foto fake ci sono personaggi che escono allo scoperto indicando volontariamente il desiderio di creare scalpore, magari con l’intendo di diffondere messaggi o critiche. Ad esempio, le immagini dell’arresto di Donald Trump sono state realizzate da Eliot Higgins, fondatore del gruppo di giornalismo investigativo Bellingcat, quella del Santo Padre in stile fashion è invece opera di Pablo Xavier, un semplice utente di Chicago che voleva creare un’immagine divertente da condividere con gli amici sui social. 

I problemi arrivano quando le intenzioni sono meno trasparenti come quelle legate alla volontà di orientare o confondere l’opinione pubblica usando le «fake news» che grazie all’ausilio di queste immagini false così realistiche, riescono da generare effetti più seri e preoccupanti. Le conseguenze dei «deep fake», ovvero quando si usa l’intelligenza artificiale per modificare una immagine umana (sia foto che video), potrebbero non essere affatto banali.  

«I deepfake, detto in maniera semplice, sono un modo per manipolare immagini e video», ci dice Pierguido Iezzi, esperto di cybersicurezza e Ceo di Swascan. “Certo quest’arte non è nuova, d’altronde siamo tutti familiari con l’aggettivo “photoshoppato” per un motivo ben preciso. Ci sono due differenze rispetto a prima però: tecnologia e competenze. Se una volta era un semplice software a compiere questo processo, oggi dietro la creazione dei deepfake, troviamo l’intelligenza artificiale. Questi contenuti sono semplicissimi da creare rispetto alle decine, se non centinaia, di ore necessarie a padroneggiare software come Photoshop. Non sono necessarie competenze di programmazione o di editing e questo, oltre che a opportunità, si presta purtroppo a molti abusi che potrebbero andare dall’inganno alla manipolazione in ambito politico sino al cyber bullismo”.

Il progresso tecnologico non è di per sé problematico, anzi gli aspetti positivi sono diversi in molti campi, ma qualche segnale di allerta dall’utilizzo inappropriato dell’intelligenza artificiale sta arrivando forte e chiaro. È proprio di qualche giorno fa l’appello di oltre 1000 esperti tra cui Elon Musk, sulla necessitò di bloccare, almeno temporaneamente, gli sviluppi dell’AI. Per il momento le immagini false dei personaggi famosi sembrano essere ancora confinate in un legittimo gioco di ironia, protesta, polemica, ma la facilità con cui è possibile generare questi contenuti ci deve far alzare il livello di guardia.

«L’educazione è la migliore difesa. Come per le email di spam che riceviamo quotidianamente, la conoscenza dei pericoli derivanti dai deepfake sarà decisiva. In aggiunta, molte aziende di sicurezza informatica stanno rilasciando soluzioni in grado di filtrare questo genere di contenuti dannosi», sottolinea ancora Iezzi.

Oggi a diventare virali sono le foto dei vip e non sono certo contenti di queste manipolazioni, ma il passo verso lo sconfinamento nella vita privata di tutti è potenzialmente possibile se non altamente prevedibile. Quando le foto diventano le nostre o quelle dei nostri figli, e si hanno sicuramente meno strumenti per tutelarci e difenderci, si apre uno scenario che non possiamo ignorare. 

Related Posts

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *