T ra i miei messaggi privati, in una chat che condivido con una persona a me cara, circola ormai una nutrita rappresentanza di video frutto dell’intelligenza artificiale (IA). Clip interamente generate da algoritmi, oppure collezioni ibride di vario genere, che mescolano immagini sintetiche e riprese autentiche. Eppure, a prescindere da quanto siano sofisticati o realistici, nessuno di quei video riesce a suscitare in me una qualche reazione: non credo a ciò che vedo.
Fare un ritratto esaustivo del fenomeno dei video generati, sembra un’impresa disperata. Le macchine intelligenti sono ovunque: scuola, lavoro, casa; hanno soppiantato i vecchi motori di ricerca, scrivono messaggi per chat romantiche, compilano liste della spesa; appaiono inevitabili. La fenomenologia dei video generati, in particolare, è investita da una mutazione rapidissima, un’estensione inarrestabile: feed automatizzati, nastri trasportatori di clip il cui unico scopo è gonfiare il traffico di visualizzazioni e interazioni. A guardare i social media, si ha l’impressione di stare scivolando da un livello di simulazione a un altro più profondo. Dopo tre anni di entusiasmo, disorientamento e ambivalenza, uno degli effetti culturali riconoscibili dell’IA è esattamente questo: le persone hanno la sensazione di essere in balia di qualcosa che sfugge senza controllo, come se proprio la realtà stesse deragliando da sotto i piedi.
Come ogni tecnologia, i video generati da IA hanno attraversato una loro prima fase embrionale, ma brevissima, durata forse appena un paio d’anni. I risultati iniziali delle applicazioni text-to-video ‒ ovvero clip creati a partire da brevi descrizioni testuali ‒ erano spesso stranianti, bizzarri, allucinati e barocchi. Anche i prodotti più accurati trasmettevano un certo profondo senso di inquietudine digitale. In breve tempo, avevamo imparato a decifrarne la grammatica visiva, fino a normalizzarla. Alcuni utenti ne riproducevano le anomalie dinamiche, impersonandole in forma di meme: braccia che si moltiplicano da sotto una maglietta, piatti di pasta che spuntano sul finale di una rissa, improvvisi rallentamenti, espressioni facciali grottesche, arti deformi, sguardi abbacinati, dinamiche emotive incongruenti e ubriache. Il potenziale dei modelli futuri era già evidente, ma la produzione di video da parte degli utenti restava per lo più motivo di burla e sperimentazione estetica.
Il grado di fedeltà raggiunto dalle IA è impressionante. Sempre più gli indizi a nostra disposizione, i segnali rivelatori rimasti, sono briciole: piccole incongruenze, dettagli che appartengono all’osservazione di dinamiche fisiche complesse non immediatamente evidenti.
Rispetto ad altre produzioni IA ‒ come quelle utilizzate per gli spot natalizi di aziende quali Coca-Cola e McDonald’s, che aprono importanti questioni politiche sul lavoro creativo ‒ in questa fattispecie di video non v’è alcuna aspirazione: solo presentismo, nessun altrove, nessuna frontiera, solo noi che ci parliamo addosso. Proprio questa estetica piatta, priva di profondità e conflitto, si rivela preziosa per oligarchi e governi autoritari: non un difetto da correggere o interpretare, ma una caratteristica anestetica sfruttata nella propaganda, perché abitua lo sguardo a consumare immagini senza posizionarsi o porsi domande.
Simulazioni. Pseudoeventi. Narrazioni
Una prima analisi dell’oggetto text-to-video non può prescindere dalla rilettura di Jean Baudrillard e la sua riflessione sui simulacri. Il filosofo descrive un regime visivo “democratizzato” in cui immagini vere e false posseggono la stessa dignità. Nel suo libro America (1986), racconta una visita al museo delle cere di Buena Park, in California, dove vede esposte fianco a fianco le repliche di Maria Antonietta e di Alice nel Paese delle Meraviglie. Le statue ricevono identico trattamento: cura nei dettagli, realismo espressivo, attenzione scenografica. Le due figure sembrano appartenere allo stesso registro ontologico, quello dei personaggi storici. Nel museo, osserva Baudrillard, accuratezza e realtà storica vengono trattate con atteggiamento casuale, e le questioni dell’aderenza al reale o dell’autenticità non sono prese in considerazione.
Applicando queste osservazioni alle macchine algoritmiche dei nostri giorni, dove immagini reali e sintetiche si susseguono indistinguibili e inseparabili, appare evidente come ci si trovi ora nell’ultima fase dell’evoluzione iconica: la simulazione pura ‒ direbbe Baudrillard ‒ dove ogni nuova immagine replica altre immagini, che a loro volta riferiscono ad altre ancora. Visioni che si pongono come completamente autonome dalla realtà, pur rappresentandola. Le IA generative hanno esasperato questa abilità con una potenza esponenziale, rimescolando liberamente database di miliardi di dati visivi per reiterarne altri identici. È il simulacro perfetto.
Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora dovremmo scandalizzarci all’idea di interagire apertamente con contenuti artificiali?
Scorrendo i commenti che migliaia di utenti lasciano sotto questi video, si nota come a una parte della popolazione preoccupata dall’incapacità di riconoscere i video generati con IA, risponde un pubblico altrettanto numeroso che invece non si pone nemmeno la questione. Non ne ha gli strumenti, oppure crede che distinguere il vero dal falso sarà via via meno rilevante. Da cosa nasce questa adesione immediata ai video generati nell’ecosistema digitale? Molto prima dell’avvento delle IA sapevamo che qualsiasi cosa circolasse online ‒ tra sketch, scenette, trovate marketing, filtri ‒ non era autentica. Se da anni ripetiamo che “i social non sono la realtà”, perché mai ora dovremmo scandalizzarci all’idea di interagire apertamente con contenuti artificiali?
La nostra fruizione è divenuta, in certo senso, disincarnata: non ci interessa più che dall’altra parte del video ci sia o meno un corpo reale, una prossimità, un conflitto, un affaccendamento davvero umano o animale. Cosa conta dunque? Nello studio “How do users perceive AI? A dual-process perspective on enhancement and replacement” i ricercatori hanno indagato il valore percepito dell’intelligenza artificiale nelle interazioni uomo-macchina. Gli utenti percepiscono l’IA attraverso due processi cognitivi distinti: uno più immediato/affettivo (sistema 1), l’altro riflessivo (sistema 2). I risultati mostrano come la percezione immediata (sistema 1) prevale nella fruizione sociale. Possiamo applicare questa analisi anche alla ricezione dei video: non passiamo quasi mai al sistema 2 dell’analisi, quello che si chiede “è vero? è reale?”, ma restiamo nel sistema 1, la risposta veloce, emotiva, automatica. Inondati dai video generati, la soglia critica si riduce, ciò che importa è l’effetto: “mi fa ridere”, “provoca tenerezza”, “mi turba”. Una postura volutamente naive, ma destinata a diventare quella prevalente nella fruizione dei social media: effetti tangibili di emozione e risposta. Conta ciò che sento, non ciò che è. Il reale si riduce a un’interfaccia adattativa.
L’origine dei video non è più una condizione per stabilirne la veridicità: accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo già appartenere alle cose del mondo.
C’è una realtà che emerge dall’apparenza. La teleogenesi dei video ‒ la loro origine ‒ non è più un a priori, una condizione per stabilirne la veridicità: accettiamo contenuti falsi perché riconosciamo in essi qualcosa che crediamo già appartenere alle cose del mondo. Il messaggio dunque, non il messaggero: il problema non è più “chi parla” o “come è stato prodotto”, ma se ciò che vediamo conferma ciò che conosciamo. La forma non dissolve il contenuto, lo rende solo più in sintonia con le nostre aspettative. I video generati servono proprio a continuare a mostrarci ciò che siamo pronti a vedere.
Gag costruite, finte candid camera, immagini riprodotte da telecamere a circuito chiuso, interviste falsificate con deepfake tra politici e celebrità, sono contenuti che richiamano quella categoria che Daniel J. Boorstin definiva come “pseudoeventi”, già nel 1961, in The Image: A Guide to Pseudo Events in America. Eventi non veri o falsi stricto sensu, ma scritti, pianificati, orchestrati o provocati, per avvenire in un preciso momento e luogo, generalmente con l’intento di esaltarne sensazionalismo e drammaticità o, come diremmo oggi, per favorire il click-baiting. Secondo la definizione di Boorstin, gli pseudoeventi non si oppongono ai fatti reali, ma agli eventi spontanei, e proprio queste loro caratteristiche hanno reso sempre più labile la distinzione tra eventi reali e falsi nel panorama mediatico. L’assuefazione alla proliferazione degli pseudoeventi ha fatto sì che tutte le narrazioni vengano recepite come tali. Allo stesso modo, nella proliferazione dei video IA, la ricerca dell’effetto estetico ideale diventa un atto manipolatorio: il valore della testimonianza, nel regime dei video sintetici, perde del tutto la sua efficacia, e la realtà viene letta come cinema ‒ o respinta come una messinscena, anche quando autentica (un caso evidente è stato quanto accaduto con l’omicidio di Renee Nicole Good in Minnesota).
La narrazione non si limita a descrivere il mondo ma agisce su di esso. Le tecniche con cui una storia viene raccontata ‒ e oggi promossa, amplificata, mercificata ‒ hanno da sempre la capacità di riscrivere la realtà. Bruce Chatwin ha letterariamente inventato l’identità della sua Patagonia ne In Patagonia (1977), eppure quel racconto è diventato geopoiesi, immaginario condiviso. Chatwin ricorre a un collage di aneddoti, personaggi, leggende e folklore, che mescola realtà e finzione per servire un intento narrativo. Gli esempi in tal senso abbondano: dal turismo che ha riconfigurato le location scelte per la serie Game of Thrones, all’iconografia del manga One Piece di Eiichiro Oda usata come simbolo delle proteste in Nepal, fino alla grande parata del Giorno dei morti a Città del Messico ‒ inesistente prima che fosse immaginata per il film Spectre (2015) di Sam Mendes, e ora istituzionalizzata. La fiction modella l’esperienza. Così fanno i video generati, che forniscono coordinate emotive e culturali. Gli animali IA che saltano sui tappeti elastici plasmano la nostra percezione del possibile, forgiano le nostre aspettative ‒ “perché il mio corgi non usa il mattarello come in quel video?”. La realtà è un effetto narrativo.
È la realtà stessa a non essere più sicura per noi. Per intrattenerci, basterà che tutto sia “verosimile”: qualcosa che potrebbe essere successo, o che potrebbe accadere di lì a poco.
Una questione di verosimiglianza
Jakob Süskind, nell’articolo “Verisimilitude or Probability? The history and analysis of a recurring conflation” (2025) esplora il concetto di verisimilitude, ossia “vicinanza alla verità” o “verosimiglianza” dal punto di vista della filosofia della scienza, e sottolinea come alcune teorie, pur false, risultino più verosimili di altre. In quest’ottica, anche un video generato può essere al contempo “meno vero” ma “più verosimile”: può sembrare più vicino alla nostra verità di quanto lo fosse la realtà precedente. Il problema, naturalmente, è che il “verosimile” si fonda su prompt che riflettono la nostra visione del mondo ‒ limitata, parziale, viziata dai nostri bias e caricata delle nostre attese.
Secondo la filosofia dell’informazione di Luciano Floridi, la distinzione vero/falso sfuma o viene superata quando subentra l’effetto informativo. Non conta più la corrispondenza con un mondo esterno, quanto la relazione informativa che il soggetto instaura con il contenuto: qualcosa è “verosimile” se è integrato nel flusso informativo che abitiamo. La soglia della verità ontica viene trascesa, il criterio diviene: “mi informa, mi coinvolge, produce effetto”. Il video IA non deve essere “vero”: deve solo funzionare ‒ informare ‒ come se lo fosse.
Anche Mario Perniola si è confrontato nei suoi lavori con estetica, media, soggettività tecnologica e simulacro, ma in un’accezione diversa da quella di Baudrillard. Perniola intendeva il simulacro come una forma ludica dell’espressione culturale e artistica, che eccede ‒ o non appartiene ‒ alla dicotomia vero/falso. In questa chiave, il video IA è un simulacro non in quanto imitazione del reale, ma perché obbedisce a una propria logica di esistenza estetica, che è tutta fondata sul “come se” appunto: la coerenza con i nostri immaginari e schemi percettivi.
In E: La congiunzione (2021), Franco Berardi “Bifo” scrive che il governo di queste tecnologie è in mano alle “corporation dell’imagineering”, le quali “hanno scavato le trincee immateriali del tecno-schiavismo e del conformismo di massa.” Il semiocapitalismo riconfigura la relazione tra estetica ed economia: l’accumulazione finanziaria oggi coincide con l’accumulazione estetica digitale, con l’intrattenimento. La penetrazione capitalista nell’inconscio collettivo avviene attraverso la saturazione degli spazi di immaginazione, con una “produzione illimitata di realtà visibile”: rendere visibile tutto ciò che si può immaginare.
Sospinta dalle multinazionali globali – Meta, TikTok, Google con YouTube, Sora2 di OpenAI, e altre – la stratificazione algoritmica produce un ambiente visivo che appare reale per frequenza e familiarità. In quel suo “funzionare” il sistema costruisce un mondo percettivo riconosciuto come legittimo. Un flusso ininterrotto di filmati che genera simulazioni infinite, alimentando un ambiente semiosferico ‒ cioè uno spazio saturo di segni e riferimenti che forma la nostra percezione condivisa ‒ in grado di colonizzare l’intero immaginario globale.
Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in cui lo guardiamo – o da cui siamo guardati.
“Sembra IA”. La svolta percettiva
I video generati da IA rappresentano l’emersione di un nuovo paradigma di simulazione che ha invaso il nostro campo percettivo. Già Marshall McLuhan parlava dei media come estensioni del nervo sensoriale umano, mentre per Bifo, l’infosfera agisce direttamente sul sistema nervoso della società, non si limita più ad ampliare i nostri sensi, modifica ciò che siamo abituati a sentire e a riconoscere in una “natura post-naturale del sensorio”: un sistema percettivo rieducato dai flussi digitali e automazioni inorganiche, più che dal mondo materiale.
Questo scenario impone di ripensare il concetto di “post-verità” estendendolo alla sfera estetico-percettiva. In L’occhio della macchina (2018), Simone Arcagni esplora la tecnologia dell’informazione come dispositivo di visione e percezione: l’occhio della macchina media lo sguardo umano secondo meccanismi tecnico‑algoritmici, trasformando la nostra soggettività visiva e rendendoci partecipi di una percezione ibrida, uomo‑macchina. Nei video generati, ciò che cambia non è tanto il contenuto, quanto il modo in cui lo guardiamo – o da cui siamo guardati.
Non è la prima volta che ci troviamo di fronte a un punto di svolta percettivo innescato dalla tecnologia dell’immagine. Nel 1994 e nel 1995, Lev Manovich identificava l’emergere del “realismo sintetico” come una cesura fondamentale, citando Jurassic Park (1993) di Steven Spielberg tra i momenti cruciali della transizione dal cinema fotografico al cinema digitale. La settima arte cambiava identità: “Oggi, nell’era dei media informatici, [filmare la realtà fisica] è solo una delle possibilità” annotava Manovich. Il cinema diventava un sottoinsieme dell’animazione, un suo caso particolare, e la CGI non imitava più la realtà, ma la riscriveva, inaugurando una nuova condizione visiva.
Poco dopo, Stephen Prince ampliò questa riflessione paradigmatica nel saggio “True Lies: Perceptual Realism, Digital Images, and Film Theory” (1996), introducendo il concetto di perceptual realism per descrivere come le immagini digitali stessero rivoluzionando ogni fase della produzione cinematografica. Per il pubblico, l’applicazione più visibile di queste tecnologie risiedeva nella nuova ondata di effetti speciali generati al computer. Prince cita la creatura acquatica in The Abyss (1989) o Terminator 2 (1991) di James Cameron, ma furono soprattutto Jurassic Park e Forrest Gump (1994) di Robert Zemeckis a segnare uno spartiacque percettivo. Film capaci di produrre uno scarto visivo inedito, “diversi da qualsiasi cosa vista in precedenza”. Il realismo percettivo, scrive Prince, “designa una relazione tra l’immagine o il film e lo spettatore, e può comprendere sia immagini irreali che immagini referenzialmente realistiche. […] Le immagini irreali possono essere referenzialmente fittizie ma percettivamente realistiche”.
Nel 2007, durante il pieno sviluppo del cinema in CGI, Tom Gunning, nel saggio “Moving Away from the Index”, ribalta l’idea secondo cui il potere del cinema (e della fotografia) risiederebbe nella sua “impronta” diretta dal reale. Se in semiotica, un “indice” è un segno che mantiene un legame fisico con ciò che rappresenta: il fumo con il fuoco, l’impronta con il piede, la fotografia con il corpo che è stato davanti all’obiettivo, per Gunning, il cinema non seduce lo spettatore grazie a quel legame fotografico e indiciale tra immagine e mondo, ma piuttosto attraverso l’“impressione di realtà”: un effetto costruito, intenzionale, performativo. Propone di spostare l’attenzione da questa garanzia ontologica dell’indice (l’immagine fotografica considerata come traccia diretta del mondo) alla capacità delle immagini di simulare la percezione del reale. Ancora una volta: ciò che conta non è la verità dell’immagine, ma la sua efficacia percettiva.
Software come Sora non registrano, piuttosto restituiscono idee in forma di immagine, spostando il baricentro dal filmato alla ricostruzione digitale totale, senza alcuna mediazione umana.
Nel suo procedere per tentativi e scoperte casuali l’umanità ha sempre accolto, quasi senza resistenza, la compenetrazione tecnologica. Non solo la grande macchina informatica o il robot umanoide, anche la più modesta estensione dello strumento quotidiano è stata integrata nella forma‑vita umana, trasformando abitudini e capacità. Oggi il test di Turing non solo è superato, ma abbiamo raggiunto il paradosso per cui intelligenze artificiali con tecnologia LLM e CoT, sono riconoscibili come non-umane, non per via dei loro limiti, ma in quanto troppo capaci. Fino a meno di un decennio addietro sembrava impossibile che un chatbot potesse esprimersi come noi, gestendo lo stesso livello di flessibilità argomentativa; ora invece le IA dominano in brevi istanti un tale volume di informazioni e campi di competenza differenti, da svelare la loro natura non-umana, anzi oltre-umana. Eppure questo non ci ha impedito di adottarle in ogni ambito della vita quotidiana, professionale, persino affettiva. In questo processo di mutazione cognitiva, sviluppiamo nuove competenze mentre altre si atrofizzano. La “fusione cyborg” teorizzata tra gli anni Ottanta e Novanta non è solo quella tra corpo e macchina, ma tra soggetto e mediazione.
Oggi il test di Turing non solo è superato, ma siamo a un punto in cui le intelligenze artificiali sono riconoscibili come non-umane non per via dei loro limiti, ma in quanto troppo capaci.
Dal passaggio iniziale del “Sembra vero” (cinema → sospensione dell’incredulità), siamo transitati al “Sembra un film” (mediatizzazione della realtà → sospensione del reale), mentre oggi siamo in una fase che può definirsi post-mimetica: il punto di partenza non è più la riproduzione di un pezzo di mondo, ma un processo cognitivo, una descrizione mentale o testuale – il prompt – a partire dalla quale generiamo un contenuto che ha a che fare, quindi, con l’interpretazione di categorie e riferimenti astratti, più che in relazione con il mondo. L’effetto visivo, come dicevo sopra, non nasce più dal confronto con il reale – la cui riproposizione fotografica è ormai superata – ma dal semplice soddisfacimento delle sue categorie.
Davanti a contenuti generati da IA, assistiamo a nuovo salto cognitivo: “Sembra IA”, dove non si indica la simulazione, ma nuove forme di autenticità e riconoscibilità postumana. “Sembra IA” equivale a: “sembra vero per come immaginiamo che il vero debba apparire”. La domanda ‒ spesso inconscia ‒ non è più: “è successo davvero?”, ma: “rispetta i miei parametri estetici, emotivi, cognitivi?”. La soglia critica non è tanto l’evento reale, né la sua estetizzazione, ma la sintetizzabilità e la riconoscibilità dei loro effetti.
Go and touch grass
Siamo a un solo aggiornamento di distanza dalla prossima generazione di IA text-to-video, e con essa, dalla totale indistinguibilità tra immagine e realtà, tra ciò che è avvenuto e ciò che è stato generato. Non è chiaro se la plasticità cognitiva che finora ha permesso di adattarci ai salti percettivi dell’immagine mediale, riuscirà ancora una volta a elaborare una via d’uscita interpretativa. È plausibile che il pubblico, davanti ai video generati con IA, semplicemente, smetta di interrogarsi. La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile resistenza, se non addirittura un atteggiamento reazionario.
La discussione – o il sospetto – su cosa sia vero, falso o possibile, potrebbe presto apparire come uno sforzo sterile, esausto, svuotato da ogni possibile resistenza, se non addirittura un atteggiamento reazionario.
Ma anche questa rischia di essere una narrazione egemonica. In The Most Radical Gesture (1992) Sadie Plant ci ricorda come il capitalismo ami la liquefazione di ogni referenza, la frattalizzazione, l’ambiguità, la sovrapposizione tra Marie Antoinette e Alice nel Paese delle Meraviglie. Non solo perché confonde, ma perché tale confusione è parte integrante del suo raccontarsi. Lo stesso Baudrillard, proprio all’indomani dell’11 settembre, riconobbe come simulacri e simulazioni non avessero azzerato la Storia: la produzione delle immagini non riesce ancora a nascondere e contenere la materialità viscerale del mondo.
Dobbiamo ricordare che le immagini che ci raggiungono non invadono tutti allo stesso modo. In Davanti al dolore degli altri (2003), Susan Sontag analizza la rappresentazione della guerra e della violenza attraverso la fotografia e i media, ma a partire dalla sua esperienza nei Balcani, durante l’assedio di Sarajevo. Sontag sottolinea come esista una condizione materiale del dolore che non può essere ridotta alla relazione spettacolo/spettatore, e della quale dobbiamo farci carico.
Le IA godono di una pervasiva ubiquità, ma i text-to-video generati convivono con milioni di corpi ostinati: chi manifesta per il genocidio a Gaza, chi per il movimento No King negli Sati Uniti; con chi lotta in Iran e in Myanmar, e con chi sopravvive alla catastrofe umanitaria in Sudan. Esiste una materialità viva nella nostra condizione esistenziale ‒ nel dolore, nella sofferenza, nella violenza, nel trauma, ma anche nella rabbia, nella gioia, nell’orgoglio ‒ che non è stata ancora sussunta, annichilita o neutralizzata dalle IA. Sulle orme di Plant, dobbiamo chiederci chi abbia interesse a che si pensi alle intelligenze artificiali come a un destino ineluttabile. Le intelligenze artificiali non saranno mai perfette, ma sono già abbastanza avanzate da rappresentare una sfida decisiva. Le aziende che si occupano di intelligenza artificiale non vogliono sostituirci, vogliono tutta la nostra attenzione.
Per questo motivo, prima di cedere del tutto alla deriva percettiva indotta dagli algoritmi, abbiamo due possibilità. La prima è quella di un gesto radicale e immediato: disconnettersi. Oppure, la seconda: pretendere un uso creativo e il più orizzontale possibile delle tecnologie generative, cercando di liberare l’IA dalle logiche di monopolio. Valentina Tanni, in Antimacchine (2025), rileggendo Jon Ippolito, lo definisce misuse: imparare a usare male la tecnologia, a giocare contro l’apparecchio, deviare le sue funzioni, stortarlo in maniera conflittuale, produrre scarti, glitch, narrazioni che espongano il programma sottostante. Costringere l’IA contro la sua natura statistica e la tendenza alla simulazione onnisciente. Una forma di détournement digitale, atti di deviazione e riuso tattico dei loro stessi strumenti, per sottrarre immaginazione alle piattaforme e spostare altrove il potere simbolico.
Infine, possiamo provare a contrapporre alla simulazione generativa un altro tipo di simulazione, una forma che esercitiamo da centinaia di migliaia di anni. Martha Nussbaum, in libri come Love’s Knowledge (1990) e Poetic Justice (1995), parla di “immaginazione narrativa” come capacità di entrare nelle vite altrui, di usare la finzione non per evadere dal mondo, ma per rispondergli eticamente. Parafrasandola, possiamo chiamare questo processo mentale come “simulazione morale”. In questa prospettiva, il rifiuto della simulazione perfetta prodotta dalle macchine non è solo un tentativo di “non farsi ingannare”, né una semplice reazione tecnofobica. È la decisione di tenere aperto uno spazio in cui la distanza tra immagine e realtà resta discutibile, un laboratorio etico in cui continuiamo a esercitare la nostra capacità morale. Una controsimulazione che non si accontenta dell’effetto ma insiste nel chiedere dove sia l’altro e quali siano le sue condizioni. A patto che l’altro esista.