Per molto tempo una fotografia è stata considerata una prova e dove c'era un'immagine, ci doveva essere un fatto reale. Oggi questo semplice associazione, invece, non rispecchia più la realtà. Nell’era dell’intelligenza artificiale generativa, anche l’immagine può essere costruita da zero, senza che ciò che mostra sia mai accaduto. Le fotografie generate dall’IA nascono già coerenti: luci corrette, proporzioni realistiche e dettagli credibili, tanto da rendere difficile o impossibile distinguere ciò che è autentico, da una totale invenzione.
L’aspetto più delicato, attualmente, è la facilità con cui queste immagini possono essere realizzate. Se fino a qualche anno fa sarebbero state necessarie competenze tecniche avanzate o software professionali, oggi esistono strumenti accessibili a tutti: programmi che permettono di generare immagini realistiche partendo da una semplice descrizione testuale. Il confine tra uso legittimo e abuso, ormai, non è tecnologico ma culturale.
Uno degli sviluppi più problematici riguarda l’uso di volti reali all’interno di immagini artificiali. Foto pubbliche e profili social possono diventare materia prima per creare contenuti falsi che attribuiscono a una persona azioni, presenze o comportamenti mai avvenuti. Un’immagine costruita può insinuare dubbi, creare sospetti, o fornire la base per una truffa credibile.
Come difendersi?
In questo contesto, la prima difesa è il ritorno al dubbio e ricordarsi che un’immagine, da sola, non è più una prova affidabile.
- verificare sempre la fonte dell’immagine;
- controllare se la notizia è riportata anche da canali ufficiali o testate affidabili
- usare strumenti di ricerca inversa delle immagini per capire se la foto è già comparsa altrove
- diffidare delle immagini che puntano solo sull’emozione o sull’urgenza
Se un’immagine falsa riguarda direttamente una persona, è importante non condividerla, conservare le prove (screenshot, link, date) e segnalarla alle piattaforme e alle autorità competenti. La responsabilità non è mai di chi subisce la manipolazione.
Se le immagini rappresentano il fronte più visibile nella vita di tutti i giorni, le stesse tecnologie che le generano permettono di falsificare audio e video. Anche il Piemonte ha conosciuto episodi che mostrano quanto la manipolazione emotiva possa essere efficace: il caso di una donna convinta di parlare al telefono con la figlia, in lacrime e bisognosa di aiuto, poi rivelatosi una vile truffa. Tramite un audio di pochi secondi, chiunque potrà essere in grado di replicare il vostro timbro, tono di voce e ritmo, per farvi dire ciò che non avete mai pronunciato.
Per rispondere ai potenziali rischi derivanti da cloni e "deepfake" (foto, audio e video che replicano le sembianze o le caratteristiche di persone esistenti), l’ordinamento italiano ha introdotto una specifica tutela. Con l’articolo 612-quater del codice penale, è stata prevista la punibilità della diffusione, cessione o pubblicazione, senza consenso, di immagini, video o audio generati o alterati tramite intelligenza artificiale quando da tali contenuti derivi un danno ingiusto alla persona rappresentata. Anche la condivisione può assumere rilevanza penale se contribuisce alla diffusione di un materiale lesivo.
Attenzione: la legge può intervenire dopo, quando il danno è già avvenuto. Prima che questo si verifichi, è importante ricostruire un rapporto critico con le immagini, sapendo che non tutto ciò che vediamo o sentiamo merita fiducia.