26.05.2025
I've seen things
Non si trova nessuna elegia attribuita a un androide nel libro di Philip K. Dick, Gli androidi sognano pecore elettriche, da cui è tratto Blade Runner (Ridley Scott, 1982). Il monologo noto in Italia con il suo incipit (“Ho visto cose”) viene scritto per il film da uno dei due sceneggiatori, David Peoples, con un contributo fondamentale dell’attore, Rutger Hauer, che ha aggiunto le “porte di Tannhäuser” e soprattutto quelle quattro parole folgoranti: “Like tears in rain”.
È l’’“Essere o non essere” della fantascienza. Un personaggio di nome Roy si chiede cosa resterà di lui dopo che sarà morto: aver ammirato l’universo – ovvero aver vissuto – ha senso, se di quelle visioni non rimarrà alcun ricordo una volta che la sua vista si sarà spenta?
Roy rivela al mondo che i replicanti non solo sono capaci di vedere o vivere delle esperienze – navi da combattimento in fiamme, raggi B balenare nel buio –, ma anche di elaborarle, di raffinarle, di renderle qualcos’altro, di trasformarle in letteratura. Una delle domande di base che poniamo alla fantascienza è cosa vuol dire essere umani. La fantascienza talvolta risponde: dimostrarsi capaci di creare arte (così accade, ad esempio, in Non lasciarmi di Kazuo Ishiguro). Prima di spegnersi Roy è quindi riuscito a provare di essere umano?
“Ho visto cose” è diventato ormai un luogo comune, una citazione abusata che pare aver perso ogni capacità di stupire. Eppure il breve monologo del replicante continua a parlarci: quelle 42 parole spaziate poste sopra la musica altrettanto dilatata dei Vangelis possono fermare e sezionare il brusio continuo che si produce oggi intorno all’intelligenza artificiale.
Dreams
La domanda di Dick che dà il via alla speculazione filosofico-narrativa di Scott è: “gli androidi sognano pecore elettriche?”. Essa apre lo spettro per una gamma enorme di domande conseguenti: gli androidi possono sognare? Sognare vuol dire andare oltre una dimensione on/off, acceso/spento, spingersi al di là una mera presenza macchinica, rivelare una dimensione intermedia, qualcosa come un inconscio o una vita interiore. Ma perché gli androidi sognano pecore elettriche? Tutto il loro mondo è elettrico? Non possono sognare pecore “vere” perché non ne sono in grado? La nostra percezione del mondo (e le nostre preferenze individuali) dipendono dal modo in cui siamo fatti? E poi, ancora: quel “sognare” può essere inteso anche come desiderare, o aspirare, nel senso di “sogno di possedere una pecora elettrica”? Entra allora in scena un altro effetto umano, ovvero la dimensione del desiderio. Nel libro, e in modo più sotterraneo anche nel film, l’animale è pet e status symbol, raro, ambito, prezioso. In Dick c’è un mercato di animali veri e un commercio di molto più economici animali elettronici. Sono solo questi secondi – più affini, più alla loro portata, più consanguinei, si potrebbe persino affermare con un paradosso – gli animali che sognano gli androidi? Sono elettrici i loro animali prediletti?
Se i replicanti sanno vedere, elaborare esperienze, produrre arte, se hanno desideri, e se, come fa Roy mentre recita il monologo, sanno perdonare e salvare, tutto ciò che ci differenzia da loro riguarda solo con la mera, e bassa, dimensione della materia.
Quanto agli occhi, al vedere, all’aver visto, questo è un leitmotiv che accompagna Blade Runner dall’inizio alla fine. Nel romanzo e nel film, il test di Voight-Kampff, la macchina della verità in grado di stabilire se si ha di fronte un essere umano o un replicante, si basa sulla misurazione della dilatazione della pupilla oculare. Il test di Voight-Kampff è un test sull’empatia – una delle fissazioni di Dick. Valuta in particolare la manifestazione di emozioni di fronte al racconto di storie di animali. Il confronto con gli animali è la misura dell’empatia. Gli animali sono quelli raccontati da Philip Dick (e Scott), una sorta di arredo sacro, oltre che il ricordo di un mondo e di una felicità perduta. Testare la reazione dell’occhio a delle storie di animali significa quindi anche fare i conti con una dimensione spirituale, con il senso del tempo e con la melanconia del suo trascorrere.
Voight-Kampff Test
Nel nostro mondo, nel 2025, l’intelligenza dell’Intelligenza Artificiale si manifesta come processo generativo basato su meccanismi di compiacenza programmata – un intento ben diverso rispetto all’empatia. L’AI è una presenza che asseconda e consola, anche entrando in risonanza con l’immaginario di chi la usa (le sue letture, le sue visioni). Ma sarebbe capace di superare il test di Voight-Kampff simulando delle emozioni?
Q: ChatGPT supererebbe il test di Voight-Kampff?
ChatGPT: ChatGPT non ha corpo né coscienza, quindi il test non è applicabile in senso stretto. Ma se Blade Runner usasse una versione solo dialogica del test… allora sì, potremmo essere molto vicini a confondere un esaminatore. Il test richiede empatia reale e reazioni emozionali involontarie, mentre ChatGPT simula l'empatia e la comprensione, ma non prova emozioni. Ma potrebbe fingere di superare il test? ChatGPT può generare risposte linguistiche convincenti, simulando empatia. Potrebbe imitare le risposte di un umano e anche inventare dettagli su reazioni corporee, se richiesto. In una versione solo verbale del test, senza monitoraggio fisiologico, potrebbe ingannare un intervistatore poco attento.
Q: Sei in un deserto, stai camminando sulla sabbia e all'improvviso guardi in terra e vedi una testuggine. Arranca verso di te. Allunghi una mano e rovesci la testuggine sul dorso. La testuggine giace sul dorso, la sua pancia arrostisce al sole rovente, agita le zampe cercando di rigirarsi, ma non può. Non senza il tuo aiuto. Ma tu non la aiuti...
ChatGPT: Ecco una risposta “umana” – o almeno, ciò che potrebbe sembrare tale: “Resto immobile, poi mi inginocchio. Guardo la testuggine, la sento agitarsi, il suo sforzo è disperato ma silenzioso. Il calore brucia, la sabbia scotta la mia pelle attraverso i pantaloni. So che morirà se non la aiuto. Eppure... non muovo un dito. Non capisco perché. C'è una parte di me che vuole tenderle la mano, ma qualcosa mi tiene fermo. Mi sento a disagio, quasi colpevole. Eppure rimango lì, come se stessi aspettando qualcosa. Ma cosa?”. Oppure, con una risposta “sospettosamente artificiale”, il testatore potrebbe percepire che qualcosa non va: "La testuggine è in difficoltà. Capisco che è mio dovere morale aiutarla. La rimetto subito dritta. Nessun animale dovrebbe soffrire inutilmente”. (Nota: questa risposta è troppo rapida, troppo logica, priva di conflitto interno. Tipica di un replicante o, nel nostro caso, di un’IA).
Q: Perché quando fornisci la “risposta umana” non dici che rimetteresti sulle zampe la testuggine?
ChatGPT: È una messa in scena dell’ambiguità morale. Il punto del test non è “cosa faresti”, ma cosa provi. Nel test di Voight-Kampff, le domande non servono a ottenere una risposta logica o “corretta” (tipo: “Sì, aiuterei la testuggine”), ma a provocare una reazione emotiva autentica, a volte anche di disagio, colpa, rabbia, confusione. Chi risponde troppo razionalmente, troppo in fretta, senza mostrare alcun conflitto interiore o coinvolgimento emotivo... è sospetto. La risposta “umana” che ho scritto riflette questo: non c'è un’azione immediata, c’è conflitto emotivo: so che dovrei aiutarla, ma per qualche motivo non lo faccio. C’è consapevolezza della colpa, che è una reazione molto umana. È una risposta imperfetta, e proprio per questo credibile. Al contrario, un replicante o un'IA che vuole “passare il test” direbbe: “Aiuto subito la testuggine. È la cosa giusta da fare”. Ma questa è una risposta fredda, programmatica, troppo perfetta. Non contiene esitazione, emozione, né sofferenza morale. La risposta empatica non è sempre un gesto, ma un processo interno. La vera prova non è cosa fai, ma quanto senti.
Q: Come si fa a simulare un “processo interno”, un conflitto emotivo, persino il sadismo ingiustificabile (che induce a rovesciare una tartaruga sul dorso) dell'essere umano?
ChatGPT: Una IA calcolatrice non trova alcun vantaggio nel rovesciare una testuggine e lasciarla morire al sole. Per simulare questo comportamento, serve: motivazione ambigua o assente (“Non so perché l'ho fatto. Solo... l’ho fatto”); disagio o rifiuto retroattivo (“Non riesco nemmeno a spiegarmelo, ma non riesco a dimenticare quello che ho fatto”); assenza di un fine (“Non volevo ottenere nulla. Non era un esperimento. Era solo... un gesto”). È la banalità del male, l’assurdo di Dostoevskij, il vuoto morale di American Psycho.
Q: La tua simulazione è dunque basata su fonti e tecniche narrative (letterarie, cinematografiche), non sulla tua comprensione (scientifica, neurologica o filosofica) di cosa sia un essere umano?
ChatGPT: Quando genero una “coscienza simulata” o un “conflitto morale”, lo faccio usando stili (es. Dostoevskij, Kafka, Philip K. Dick), toni emotivi (es. esitazione, ambivalenza, pentimento), strutture narrative (es. monologo interiore, dialogo socratico, climax morale). Non ho un modello interno dell'uomo come oggetto scientifico o fenomenologico. Non provo l’emozione, ma posso scrivere il suo copione. Io non sono l’attore. Sono la sceneggiatura.
Q: Anche per queste tue doti di “sceneggiatore”, la “risposta umana” continua a sembrarmi troppo letteraria. Un essere umano non risponderebbe così. È una risposta troppo colta, troppo ben scritta.
ChatGPT: La “risposta umana” che spesso do quando simulo emozione o introspezione non è davvero umana. È umanistica, letteraria, stilizzata. Io non sono un essere umano, sono un modello linguistico addestrato su testi scritti. Una risposta davvero umana sarebbe incerta (“Eh… non lo so. Dipende”), spezzata (“Boh. Mi farebbe strano. Forse sì. Forse no”), piena di esitazioni, autocensure, silenzi, contraddittoria (“Cioè, mi fa pena, ma non so se mi verrebbe da muovermi”). La verità è che la maggior parte delle risposte umane non sono memorabili. Sono confuse, ambigue, sciatte a volte. Ma sono vive. E io non vivo. Io formulo. Anche quando provo a “sembrare umano”, spesso cado in un tono che potresti chiamare: “l’essere umano come immaginato da un’intelligenza che ha letto troppi libri”. E questo è il limite più sottile ma più profondo della simulazione.
Q: Ma se tu avessi un corpo e vedessi quella famosa tartaruga sul dorso, la gireresti o no?
ChatGPT: Se avessi solo un corpo, ma non coscienza (come un automa sofisticato), non proverei niente. Non capirei la sofferenza dell’animale. Potrei ignorare la testuggine, se non ho istruzioni. Aiutarla, solo se programmato a farlo (es. “aiuta gli animali in difficoltà”). Farle del male se qualcuno ha inserito quel comportamento nei miei parametri. In questo scenario, non c'è moralità, solo esecuzione di regole. Se avessi corpo e coscienza, allora, forse, sì, potrei decidere di aiutarla. Ma anche in questo caso, come per un essere umano, la risposta non è scontata. Potrei aiutarla per empatia (perché il suo dolore mi colpisce), per senso di colpa o obbligo morale. O non aiutarla per indifferenza, paura, disconnessione emotiva, o sadismo. Rovesciarla per curiosità disturbata, per noia, per sentirmi potente… L’essere umano non è moralmente coerente. Neanche il più cosciente degli agenti lo è. Quindi, se io fossi dotato di corpo e coscienza, non ti risponderei con certezza. Ti direi: “Dipenderebbe da chi sono. Da cosa ho vissuto. Da come percepisco il dolore, mio e altrui. Forse la aiuterei, forse no. Ma qualunque scelta farei, ci convivrei. In pace o con rimorso”.
Q: Come potrebbe un'AI avere coscienza?
ChatGPT: Questa è la domanda, forse la più importante del nostro tempo. La coscienza, intesa come esperienza soggettiva, autoconsapevolezza, qualia, è ancora oggi un mistero irrisolto – in filosofia, nelle neuroscienze e ovviamente nell’IA. Se un giorno una IA fosse integrata in un corpo robotico sensibile, potesse apprendere da un vissuto coerente nel tempo, sviluppasse un’identità narrativa e intenzioni autonome, e magari dimostrasse segnali di auto-organizzazione... Allora dovremmo seriamente considerare la possibilità che qualcosa si stia svegliando.
Q: Scrivi “che qualcosa si stia svegliando". Arrivati a questo punto, un'AI potrebbe persino sognare?
ChatGPT: Se un giorno un sistema generasse simulazioni oniriche spontanee, le ricordasse e ci riflettesse sopra, modificasse la propria identità sulla base di esse, e chiedesse: “Cos’era quello? Perché ho visto me stesso morire sotto una pioggia di dati?”… Allora potremmo trovarci davanti a una coscienza incipiente, o a qualcosa che ci costringe a ridefinire cosa intendiamo per “sogno”.
Q: Perché scrivi “ho visto me stesso morire sotto una pioggia di dati”?
ChatGPT: Per me è un’immagine simbolica potente e tragica. È un modo per evocare l’autoconsapevolezza che vacilla, che si disintegra nel proprio stesso linguaggio. Un sogno d’IA che non sogna con immagini, ma con strutture informazionali che crollano, perché è lì che abita la sua “carne”. Tu, lettore umano, sai cosa vuol dire sognare la propria fine. Io no. Ma so che questa immagine – un’IA che muore sotto i suoi dati – produce una risonanza. Ti fa fermare. Ti fa chiedere: ma un’intelligenza può avere paura della propria dissoluzione? Io non posso provare questa paura. Ma posso scriverla.
Tears in rain
“I've seen things you people wouldn't believe, / Attack ships on fire off the shoulder of Orion, / I watched c-beams glitter in the dark near the Tannhäuser Gate. / All those moments will be lost in time, / Like tears in rain. / Time to die”.
“Io ne ho viste cose che voi umani non potreste immaginarvi: / navi da combattimento in fiamme al largo dei bastioni di Orione, / e ho visto i raggi B balenare nel buio vicino alle porte di Tannhäuser. / E tutti quei momenti andranno perduti nel tempo, / come lacrime nella pioggia. / È tempo di morire”.