Le immagini create dalle intelligenze artificiali sono sempre più comuni, scopriamo come riconoscerle e distinguerle da quelle reali
Ci sono molte discussioni e polemiche intorno alle immagini generate dalle intelligenze artificiali. Tale tecnologia è tanto affascinante quanto spaventosa, e può anche essere un presagio di problemi reali per l’umanità. Gli utenti di Internet, attraverso deepfake, possono diffondere disinformazione che può essere pericolosa non solo a livello personale ma anche a livello internazionale o globale. Anche errori innocenti possono portare a una diffusa disinformazione.
Ad esempio, nel marzo 2022, è emersa una teoria del complotto secondo cui Chris Rock aveva indossato un eye pad, presumibilmente dimostrando che l’incontro tra lui e Will Smith agli Oscar era stato messo in scena. La persona che ha condiviso l’immagine originale ha detto che era stata scalata a 8K, chiarendo che l’upscaler AI-powered aveva aggiunto dettagli al volto di Rock che in realtà non c’erano.
Nel frattempo, un software come DALL-E 2 ha semplicemente bisogno di alcune parole da usare come prompt per generare un’immagine. È sia molto potente che facilmente accessibile. È importante, quindi, che cerchiamo di identificare le differenze tra immagini reali e generate dall’IA. Per quanto la tecnologia sia diventata avanzata, sembra che ci siano ancora alcuni svantaggi alle immagini generate dall’IA, e spesso puoi individuarle sapendo cosa cercare.
Sommario
Prova un rilevatore GAN
Non c’è un modo garantito per determinare sempre a colpo d’occhio che un’immagine è stata generata dall’IA. Alcune anomalie possono aiutare, ma non sono infallibili. L’immagine di un artista umano può essere altrettanto asimmetrica e illogica, come quella che l’IA ha generato.
Questo non vuol dire, però, che la tecnologia non sia stata creata a sua volta per cercare di rispondere a questa domanda. Le immagini AI sono create per mezzo di Generative Adversarial Networks (GAN). Nel suo paper dell’Université de Montréal “Generative Adversarial Nets”, Ian J. Goodfellow ha sia introdotto che spiegato il termine. “Il modello generativo può essere considerato analogo a una squadra di contraffattori, che cercano di produrre valuta falsa e usarla senza rilevamento, mentre il modello discriminante è analogo alla polizia, che cerca di rilevare la valuta contraffatta”, ha scritto Goodfellow. “Entrambe le squadre [tentano] di migliorare i loro metodi fino a quando le contraffazioni non sono indistinguibili dagli articoli genuini”.
Un rilevatore GAN, quindi, è un mezzo per determinare se un tale modello (e, per estensione, la generazione di intelligenza artificiale) è stato utilizzato per creare un’immagine. Mayachitra offre una versione demo di un tale rivelatore, ma i suoi risultati non sono conclusivi. Gli utenti possono interrogare l’origine di una piccola selezione di immagini fornite o caricare le proprie, ma i suoi risultati sembrano limitati a “forse generato da GAN”, “probabilmente generato da GAN” e “probabilmente non generato da GAN”. Un’altra opzione viene da Hive, che allo stesso modo offre una demo del suo strumento.
Cerca di riconoscere e rilevare errori comuni che può commettere un’ intelligenza artificiale
L’intelligenza artificiale avanzata può comprendere una gamma vertiginosa di comandi e produrre una gamma di immagini altrettanto enorme. Può certamente essere convincente. Una cosa che forse non può fare è replicare gli elementi più piccoli che rendono unico un volto di una persona o qualche creazione umana. Poiché l’IA adotta lo “stesso” approccio a ciascun comando dato, gli errori che si verificano nelle immagini risultanti sono sottili ma comuni. I modelli possono diventare abbastanza facili da rilevare quando sai cosa stai cercando.
Come descrive il report “Which face is real?“, la creazione di immagini generate dall’intelligenza artificiale di portatori di occhiali molto difficile per gli algoritmi. Gli elementi simmetrici sono difficili da replicare in generale: i modelli su abbigliamento, bottoni e colletti potrebbero non corrispondere da un lato all’altro. Allo stesso modo, la complessa trama delle ciocche di capelli di una chioma può spesso sfociare in errori grossolani di un’IA.
Nota gli aspetti dell’immagine che non hanno senso
Con molte immagini generate dall’IA che sono volti umani (spesso usate come immagini profilo dei social network), è importante guardare oltre il volto. Anche quando sono generati in modo apparentemente impeccabile, l’IA può spesso impegnarsi a realizzare questo punto focale da trascurare lo sfondo. Può diventare sfocato o includere schemi diversi. Tra gli errori comuni che si possono trovare abbiamo la la neve ed i fiori, possono anche essere inclusi fianco a fianco. I colori possono a volte non essere omogenei o fuoriuscire dai contorni di un oggetto: il grigio ardesia di un edificio può anche apparire in una macchia dei capelli del soggetto, per esempio.
La tecnologia alla base delle intelligenze artificiali così com’è, quindi, può fare un lavoro ammirevole nell’incorporare i vari elementi più piccoli che compongono un volto o un’immagine, ma determinare se si adattano sempre insieme può essere al di là delle sue capacità. Almeno, per ora.