A lcuni ci avevano avvisato sul fatto che a un certo punto l’immagine avrebbe preso il sopravvento, fino a rimodellare la nostra articolazione del senso, il nostro modo di percepire e orientarci nel mondo. Com’è potuto accadere che cose così artificiali e tecniche, come la fotografia e la grafica (un tempo avremmo detto soltanto la pittura), in poco più di un secolo, ci abbiano costretti a rimodellare il linguaggio articolato?
Forse non c’è nulla di trascendentale, se si pensa che attualmente pare vengano scattate 5 miliardi di foto al giorno – secondo una stima che definire approssimativa è riduttivo. È invece letteralmente utopico avere l’ambizione di sapere, anche solo in via orientativa, quante sono le immagini guardate ogni giorno. Perché ormai l’immagine non è più soltanto quella fotografata o creata artigianalmente attraverso la grafica, ma è anche quella che viene prodotta da un agente altro: l’intelligenza non umana. Un evento questo che ha spinto l’autore Fred Ritchin, nel suo ultimo libro L’occhio sintetico. La trasformazione della fotografia nell’epoca dell’intelligenza artificiale (2025), a chiedersi: la fotografia può essere ancora credibile?
Centinaia di milioni di fotografie ogni ora, rapidamente caricate, modificate, archiviate insieme a miliardi di immagini generate da modelli addestrati sul”“già visto”. In questa marea indifferenziata di pixel, la fotografia, nata come traccia fisica di un evento realmente accaduto, perde progressivamente il suo privilegio di testimone del reale: una foto può essere non solo scattata, ma anche ritoccata, sintetizzata, mescolata a infinite altre. Questa ha ancora lo status di medium ultimo per certificare la verità – il celebre “se non vedo non credo” – che ha avuto fino ad oggi? Detiene ancora questa valenza in un’epoca in cui l’“occhio” non è più solo umano ma sintetico, algoritmico? Ritchin insiste sul fatto che non siamo semplicemente passati da analogico a digitale, ma da immagini ancorate a un evento a immagini prodotte per combinazione statistica di altre immagini: una sorta di “mimesi di mimesi”, copie di copie che costruiscono realtà verosimili a partire da archivi preesistenti. In questo regime, il legame indicale – quel “questa cosa è accaduta davanti a un obiettivo” che garantiva alla fotografia un’aura documentaria – si sfibra. Il risultato è un campo visivo in cui non sappiamo più se ciò che vediamo è stato registrato, simulato o ibridato.
In questa marea indifferenziata di pixel, la fotografia, nata come traccia fisica di un evento realmente accaduto, perde progressivamente il suo privilegio di testimone del reale: una foto può essere non solo scattata, ma anche ritoccata, sintetizzata, mescolata a infinite altre.
Ma quali sono i veri apporti estetici che le IA hanno messo a disposizione per l’immaginario umano? Cosa sono riuscite a fare di diverso da ciò che già non fosse in grado di fare l’essere umano con le sue capacità tecniche? Tra il 2022 e il 2023 l’intelligenza artificiale generativa ha iniziato a produrre immagini sorprendenti, ma spesso riconoscibili come artificiali a causa di bizzarri difetti. Le fotografie “impossibili” generate dall’IA presentavano indizi rivelatori: mani con un numero errato di dita, anatomie deformate, occhi leggermente disallineati, sorrisi con troppi denti, e testi completamente senza senso nei loghi o nei cartelli. Questi errori ricorrenti – una mano con sei o più dita, un volto dai lineamenti sfalsati o scritte simili all’inglese ma prive di significato – sono diventati icone involontarie dell’estetica IA primitiva.
Queste stranezze non erano limitate alle figure umane. Nei primi esperimenti, chiedere a un’IA di generare un’immagine con testo (per esempio un’insegna o dei sottotitoli) produceva gibberish, stringhe di lettere che ricordavano vagamente parole inglesi ma erano prive di senso compiuto. Su Internet c’è stato ovviamente qualcuno che ha addirittura relegato questo fenomeno a nuovo slang o sottocultura, ma la cosa non ha avuto seguito. All’epoca, questi difetti venivano perlopiù considerati incidenti di percorso. I progettisti di modelli IA lavoravano per eliminarli, mentre online ci si faceva ironia: gallerie di AI fails mostravano mani mostruose e volti inquietanti facendo ridere e rabbrividire al tempo stesso. Eppure, fin dall’inizio si è creata l’opportunità di chiedersi se in quelle imperfezioni non ci fosse un valore estetico latente. Dopotutto, la storia della cultura visuale (ma anche di qualsiasi tipo di cultura) insegna che ciò che in un’epoca è un limite tecnico o un errore, in seguito può essere rivalutato come cifra stilistica.
Invece di scartarle, si possono considerare le “allucinazioni” dell’IA nel produrre immagini come un nuovo linguaggio visivo, emerso al confine tra intenzione umana e caos puramente algoritmico. È la logica alla base della glitch art, già nota in ambito musicale.
Con un po’ di romanticismo, è possibile credere che dalle “allucinazioni” dell’IA (quelle strane deviazioni dal prompt originale) si possano rivelare la personalità del modello, il suo processo interpretativo, quasi fossero la firma involontaria della macchina. Invece di scartarli, li si può considerare un nuovo linguaggio visivo, emerso al confine tra intenzione umana e caos puramente algoritmico. È la logica alla base della glitch art, già nota in altri campi, non solo visivo, ma anche ad esempio musicale, come per il caso del genere glitch music – per l’appunto. D’altronde, introducendo volutamente certi difetti, si può arricchire la palette estetica: colori sbagliati possono dare un tocco onirico, pixelazioni e artefatti evocare la nostalgia dei primi videogame, mentre sproporzioni e sovrapposizioni generano inquietudine surrealista: c’è insomma chi vede in quegli errori non solo qualcosa da correggere, ma un potenziale espressivo da coltivare.
Col passare dei mesi, comunque, i modelli generativi hanno iniziato a migliorare. Le versioni più recenti di Midjourney, Stable Diffusion e altri sembrano aver imparato a rispettare meglio il numero di dita e la simmetria dei volti, mentre i prompt testuali vengono interpretati con maggior precisione. Si avvicina così l’orizzonte di una “trasparenza” totale dell’immagine IA: uno scenario in cui un occhio umano medio non riuscirà più a distinguere una foto reale da una perfettamente sintetizzata. Paradossalmente, però, più l’IA raggiunge la perfezione mimetica, più rischia di generare risultati freddi, troppo levigati, privi di quei piccoli segni di vita che rendono un’immagine davvero “umana”. È qualcosa di simile al cosiddetto problema dell’uncanny valley, seppure in una nuova veste: un volto generato al computer può avere tutti i pixel al posto giusto, eppure risultare freddo e senz’anima perché manca di quella irregolarità organica cui il nostro cervello è abituato. Non è la perfezione a rendere umano qualcosa, quanto piuttosto l’imperfezione. Non sorprende allora che già oggi molti creator nei prompt specifichino elementi come “unpolished, grainy, off-center” per ottenere immagini più credibili e dotate di atmosfera. In pratica, stiamo chiudendo il cerchio: dopo aver inseguito la qualità perfetta, reintroduciamo il difetto per recuperare calore e familiarità. Una vera e propria battaglia tra umano e simulacro, fatta di perdite e guadagni verso il reale.
Ma al di là della ricerca di realismo, c’è un altro motivo per cui le imperfezioni potrebbero tornare protagoniste: il loro valore nostalgico e culturale. Gli artefatti delle prime immagini IA potrebbero diventare presto ciò che la pellicola sgranata è per i fotografi analogici, o ciò che i filtri 8-bit sono per i fan dei videogiochi rétro: un segno distintivo di un’epoca passata, da omaggiare e riprodurre per evocare determinate sensazioni. Non è quindi fantascientifico pensare che in un futuro prossimo queste imperfezioni verranno volontariamente imitate, per creare un effetto nostalgico e inquietante. Colori leggermente sbagliati, qualche mano con sei dita sullo sfondo e scritte pseudoinglesi sui cartelli stradali e si è subito in piena IA vintage. Sono dettagli che, per chi ha vissuto l’era pionieristica dell’AI art, richiameranno immediatamente un senso di déjà-vu, il ricordo di quando quelle immagini ci stupivano e spaventavano insieme per la loro stranezza.
Paradossalmente, però, più l’IA raggiunge la perfezione mimetica, più rischia di generare risultati freddi, troppo levigati, privi di quei piccoli segni di vita che rendono un’immagine davvero “umana”. È qualcosa di simile al cosiddetto problema dell’uncanny valley, seppure in una nuova veste.
Il fenomeno vaporwave è un movimento musicale e poi visivo che esprime la malinconia di un futuro che ci era stato promesso e che invece non si è mai realizzato. Tutta la potenza utopistica e tecnologica della prima fase internettiana, poi svanita dietro alle sovrastrutture tecnocapitaliste che l’hanno depredata.
Eppure, ciò non significa che non nascerà affatto nostalgia. Sarà una nostalgia solo estetica, più legata alla sensazione di quel periodo pionieristico che non a un valore ideologico. Sarà, per capirci, simile alla nostalgia che si prova rivedendo la grafica di un vecchio videogioco: non importano tanto le condizioni sociali in cui quel gioco uscì, quanto le emozioni che ci dava la sua estetica oggi sorpassata. Analogamente, chi ha sperimentato le prime AI art ricorderà l’emozione mista a inquietudine nel vedere il computer tentare di generare realismo e fallire in modo spettacolare: quei fallimenti inaspettati erano il segno di una macchina alle prime armi, quasi infantile nella sua creatività caotica.
Del resto, c’è già oggi un velo di futura malinconia anche nel sapere che certe immagini non potranno più essere “sbagliate così”. Nel suo piccolo, stiamo vivendo un momento storico irripetibile. Volendo dare una lettura sbrigativa si potrebbe affermare che ciò che manca è la politica e ciò che abbaglia è invece l’estetica.