Una relazione intima, segreta, esclusiva
Verso un nuovo paradigma dell’interazione uomo-macchina
Si può davvero tentare un racconto, un pensiero critico serio, su Chat GPT mentre questa cosa cambia giorno dopo giorno, sotto i nostri occhi? Non sembra facile e onestamente non lo è.
Se è vero che siamo di fronte a un momento iPhone, come dicono negli Stati Uniti, paragonando la capacità trasformativa dell’AI a quella del primo smartphone, è anche vero che siamo di fronte a quello che io definirei un momento Covid19. Certo, non abbiamo un virus che uccide milioni di persone, ma dovremmo convenire che siamo di fronte a un altro oggetto radicale del presente (come i chip) che muta alla radice le condizioni della nostra esistenza, e che produce la stessa incertezza lampante dei primi mesi di pandemia, con una copertura dei media che, seppure rilevante, appare sensibilmente inferiore. Non sappiamo molto di questa cosa, come non sapevamo nulla del Coronavirus quando ce lo siamo ritrovato davanti. Quelli di Open AI, sviluppatori e proprietari di Chat GPT, l’hanno scritto chiaramente nel documento di presentazione della versione 4: questo «rapporto non contiene ulteriori dettagli sull'architettura (comprese le dimensioni del modello), l'hardware, la capacità di calcolo necessaria all’addestramento, la costruzione dei set di dati e il metodo di training». Non hanno intenzione di dire nulla. Affermano solo che questa cosa cambierà il mondo, e ci si può credere, eppure non dichiarano come funziona, hanno deciso di non rivelarlo. A noi non resta altro che continuare, come abbiamo fatto per anni con altre cose tecnologiche, a osservare i risultati, gli output, gli effetti sugli individui e sulle società, senza poter fare granché e senza sapere cosa gira dentro le macchine.
Ripeto, appare difficile, se non impossibile, provare a raccontare ed elaborare un pensiero critico sulle evoluzioni dell’ambiente che ruota attorno a Chat GPT.
Con la decisione di vendere lo sfruttamento della propria intelligenza artificiale generativa, per pochi dollari, a sviluppatori e imprese, Open AI e Microsoft hanno cominciato a costruire un nuovo ecosistema produttivo e di consumo. Dall’alto della loro potenza infrastrutturale e di calcolo, le due società concedono a tutte le aziende che lo vorranno di usare questo ambiente per creare nuove applicazioni che contengono AI. Ecco perché siamo di fronte al proliferare di strumenti che nel novembre dello scorso anno non avremmo nemmeno immaginato, fenomeno che non potrà far altro che crescere.
The Information, in un reportage dedicato alla cosiddetta Cerebral Valley, la Silicon Valley dell’AI, sostiene che, nonostante i fallimenti di banche importanti per gli Stati Uniti e quella specifica regione, stiamo vivendo «l'esplosione cambriana dell'intelligenza artificiale e tutti vogliono lasciare la propria impronta sui reperti fossili».
Una febbre schumpeteriana che contagia imprenditori alla ricerca di finanziamenti e investitori alla ricerca di start-up, tutti indifferenti alla distruzione di valore, di ricchezza e posti di lavoro, si concentrano piuttosto sulla parte creatrice, in posizione di demiurghi. The Information racconta che un tale, di nome Jeremy Fisher, «ha presentato Dungeons and Dragons Infinity, una versione del gioco di ruolo da tavolo da fare online, e per sempre, con un dungeon master generato dall’AI».
Gli aspiranti imprenditori della Cerebral Valley sono gente simpatica, e chiunque di noi si troverebbe bene a berci una birra e scambiare due chiacchiere, chiedere loro di raccontare qualcosa su Burning Man, per finire la serata a farci spiegare il loro progetto, quello che intendono farsi finanziare da un fondo di venture capital. Il problema di questi ragazzi, i quali sono per lo più uomini, è che hanno l’abitudine di creare cose che poi vengono rapidamente utilizzate da miliardi di esseri umani, e questo è un bene, senza sapere come funzionano queste cose, senza sapere come funzionano fino in fondo e quali conseguenze riservino all’umanità, e questo è male. Partono per realizzare social network che connettono miliardi di umani, e finiscono per osservare queste reti sociali che si trasformano in armi, in oggetti contundenti utilizzati nel discorso pubblico.
Sam Altman fondatore di Open AI e creatore di Chat GPT ha detto al New Yorker: «questa è la cosa inquietante delle reti neurali: non hai idea di cosa stiano facendo e loro non possono dirtelo».
La verità è che avremmo bisogno di un tempo e di una distanza, fisica ed emotiva, che non esistono per leggere tutto ciò che riguarda l’intelligenza artificiale, e per provare a capire almeno una parte minima di quanto sta accadendo. Tempo e distanza che non abbiamo. L’intelligenza artificiale muta a una velocità sorprendente e noi facciamo fatica pure a scorrere le notizie, figuriamoci a capire cosa accadrà.
Siamo già arrivati alla versione 4 di GPT, molto più efficace, più performante, delle precedenti. Adesso è in grado di tradurre un appunto scritto su un foglio di carta in un documento per punti, in un’applicazione, in una porzione di codice. In questi stessi giorni è stato rilasciato anche Midjourney 5 che crea, dal nulla, immagini verosimili e stupefacenti.
Eppure sono sorpreso del fatto che esistano ancora persone che sanno poco o nulla di Chat GPT, che non pensino e parlino tutto il giorno dell’intelligenza artificiale, che a me pare un argomento dello stesso valore della guerra, della relazione tra Cina e America, del cambiamento climatico, tutte cose che hanno effetto duraturo sulle nostre esistenze.
Come scrive James Bridle in Modi di essere (Rizzoli), «forse dovremmo riflettere più attentamente sull'ecosistema in cui coltiviamo l'intelligenza artificiale, in particolare sulle forme aggressive, dominanti e distruttive che sembrano proliferare in quest'epoca».
Comunque, l’altro ieri a cena con amici, qualcuno chiedeva dove fosse GPT, come si potesse utilizzare, cosa bisognasse dirle o dirgli, sventolando il telefono in maniera interrogativa. Non so se sia un buon segno o un cattivo segno, per adesso è un fatto. Più che altro identifica una certa asimmetria sempre presente quando una tecnologia comincia a diffondersi.
È probabile che nella seconda metà del 2007, pochi mesi dopo che Steve Jobs aveva presentato al mondo l’iPhone, al Moscone center di San Francisco, alcuni di noi andassero in giro a chiedere cosa fosse e come funzionasse il nuovo telefono della Apple. E se davvero avesse funzioni che gli altri cellulari non avevano, e magari cosa avesse di così speciale. Nelle stesse settimane molti altri tra noi continuavano a fare la vita di sempre, una vita che non supponeva nemmeno l’esistenza stessa di una cosa chiamata iPhone; e questi altri tra noi ignoravano senza particolari patemi un oggetto la cui lontananza per mezz’ora dal palmo della loro mano, oggi, reputerebbero inconcepibile, intollerabile.
Accanto agli ignari, esistono gli aruspici che, dopo aver vaticinato non si sa come né dove, e dopo soli quattro mesi di convivenza con l’intelligenza artificiale generativa, sostengono che non è importante pensare a quanti posti di lavoro si guadagneranno o a quanti si perderanno, conta solo allinearci e imparare a convivere, ad allineare le nostre competenze a questa trasformazione. Se sulla seconda parte di questo ragionamento si può discutere, anzi forse si può addirittura convenire, in virtù del sacrosanto principio di realtà e di una banale considerazione dei rapporti di forza in campo, la prima parte del discorso fa ridere: è proprio ridicola. Ci saranno posti di lavoro perduti e posti di lavoro guadagnati, persone che andranno a casa e altri che troveranno un lavoro, molti aumenteranno la propria produttività, altri ancora saranno gli esodati dell’intelligenza artificiale, non sappiamo quanti, non sappiamo quale sarà il saldo tra nuovi occupati e nuovi disoccupati, se sarà negativo o positivo, se saranno più i posti di lavoro creati di quelli distrutti. Diffidate poi di chi canta le virtù taumaturgiche dell’AI. Accanto agli aruspici che osservavano le viscere degli animali sacrificati per vaticinare, ricordiamo gli àuguri che scrutavano il volo degli uccelli per predire il futuro.
La verità che è rischiamo di correre gli stessi errori che abbiamo compiuto in passato: un entusiasmo immotivato, per dirla con Paolo Sorrentino di Call my agent, un fastidioso entusiasmo che andrebbe sostituito da una sana dose di meraviglia, da un onesto stupore, e forse dai sentimenti siamesi dell’estasi e dell’orrore (qui Baudelaire e Giovanni Macchia). Basterebbe osservare le cose con un po’ di raziocinio, predicando e praticando il dubbio, visto che - come detto - ci è concesso soltanto di guardare gli output della macchina, i risultati dell’interazione che abbiamo con essa.
E a proposito di interazioni, un’ipotesi possiamo farla, cercando di evitare la disamina meticolosa e frequente di ciò la macchina risponde oggi, che è ben diverso, meno accurato e più stupido di quello che dirà domani e poi dopodomani. La macchina migliorerà, stiamone certi, e scrivere delle sole risposte adesso appare una micidiale perdita di tempo.
Proviamo allora a guardare alla relazione in sé, proviamo a cristallizzare una postura che non dovrebbe mutare nell’immediato futuro, e cioè al modo in cui noi ci relazioniamo con l’AI, alla cosiddetta interazione uomo-macchina nel momento in cui decidiamo di cercare qualcosa sul web. Un’azione compiuta almeno 10 miliardi di volte al giorno in tutto il mondo.
Fino a ieri, a seguito di una ricerca, Google offriva un risultato che nella sostanza era uguale per tutti: una sequenza di link. Poteva cambiare l’ordine di quei link, poteva cambiare la presenza o l’assenza di un singolo risultato, in virtù dei processi di personalizzazione figli della nostra storia di navigazione, delle preferenze espresse e inespresse, del luogo dal quale ricerchiamo, e poi dal telefono e dalla posizione, dalla lingua, ma la sostanza - per il motore di ricerca - non mutava. Sceglieva dall’immane catalogo dei link quelli giusti per noi e per le nostre chiavi di ricerca, e li offriva alla nostra attenzione. A fronte di una stessa richiesta, il link poteva essere per me in prima posizione e per il mio collega in quarta, per un amico in India in seconda pagina, ma alla fine il link cui ci indirizzava era lo stesso, chiunque di noi tre l’avesse letto.
I link conducono ad articoli, schede, siti, documenti, blog, voci wikipedia, informazioni su luoghi e prodotti che non mutano al mutare dell’utente. Quando leggiamo una voce wikipedia in Italiano, leggiamo tutti lo stesso testo.
Adesso, invece, quando io chiedo una cosa al motore di ricerca di Microsoft, potenziato da Chat GPT, il risultato che mi viene offerto è profondamente diverso. Se l’avete utilizzato sapete di cosa parlo, se non lo conoscete pensate a una chat, anziché alla classica schermata con l’elenco di link.
L’atteggiamento dell’utente è quello di chi avvia una conversazione con la macchina e poi, nel corso di questa conversazione, l’intento di ricerca si precisa e si definisce di volta in volta, risposta dopo risposta, domanda dopo domanda, in virtù dell’interazione stessa tra uomo e macchina. Il motore di ricerca potenziato, peraltro, ha memoria delle conversazioni precedenti, quindi è personalizzato più o meno come lo è Google.
Il risultato della conversazione e quindi della ricerca oggi non è più un link o una sequenza di link, ma una specifica frase, l’inizio di uno specifico discorso. Quando chiediamo una cosa al motore di ricerca potenziato dall’AI, leggiamo un periodo, breve o lungo che sia, a seconda delle nostre esigenze, che risponde a un nostro preciso bisogno informativo.
Ora la frase che segue alla nostra richiesta è congegnata per rivolgersi a un singolo utente, a colui che ha fatto la ricerca: a uno e uno solo di noi, così come lo è una risposta in una discussione o in una chiacchierata. E più andiamo avanti a chiedere, più la risposta si modella sulle nostre specifiche esigenze, allo stesso modo di quanto accade in una conversazione. Noi e la macchina stiamo costruendo un nostro discorso.
Questa nuova postura dell’essere umano nella relazione con l’intelligenza artificiale è allora una postura che potremmo definire intima. Ciò che la macchina ci offre in risposta non è più uguale per tutti, ma è mio e solo mio.
La risposta della macchina è esclusiva, privata, è segreta, una cosa tra me e Chat GPT per così dire, e che nessun altro leggerà. Ovviamente privata per modo di dire, Microsoft e Open AI possono conoscere perfettamente quel che io scrivo e domando e chiedo. L’essere umano conversa con la macchina e ottiene in risposta materiale riservato solo a lui, un discorso - domande e risposte - che emerge dalla reazione, quasi in senso chimico, dell’intelligenza artificiale con la sensibilità dell’uomo, e con i pregiudizi e i bisogni dell’uomo che domanda. Del singolo uomo che domanda, certo sulla base dei parametri generali stabiliti dai progettisti dell’AI.
Risulta facile visualizzare questa immagine, un uomo solo davanti al computer, allo smartphone che chiede per sé; invece risulta complicato, anzi impossibile, leggere le parole di questa conversazione. Tutto parte da domanda banale sulla guerra, sul futuro, sui soldi, su come curare la depressione e poi, dopo, cosa si diranno? Cosa verrà fuori da questo dialogo? Come si articolerà il discorso?
Come le parole e le informazioni e i concetti e le notizie e le idee prenderanno forma nella relazione tra i nostri miliardi di neuroni e le reti neurali da miliardi di parametri che muovono la cosa che ci risponde?
Non abbiamo idea di quali effetti queste risposte intime, segrete, esclusive, e il loro prendere forma, il loro modellarsi nella chat, produrranno nelle persone.
Penso al modo di fruire le notizie, e quindi al modo in cui l’interazione tra uomo e macchina andrà modificando il materiale grezzo prodotto dai media, così lo considera l’intelligenza artificiale, affinché risponda alle domande sempre più specifiche dell’utente.
Nell’immediato futuro sarà complicato indagare su queste dinamiche, serviranno, come hanno fatto per TikTok, altre macchine che simulano il comportamento di esseri umani per testare il modo in cui l’AI risponde.
Macchine che emulano umani, servono a capire come funzionano macchine che rispondono agli umani.
In questi anni abbiamo scoperto le bolle di filtraggio, le camere di eco, ambienti in cui le persone si formano un’opinione e la rafforzano sulla base di informazioni e pregiudizi alimentati dagli algoritmi di personalizzazione. Se io seguo solo terrapiattisti su Twitter che pubblicano contenuti a rotta di collo, tenderò a pensare che la terra sia effettivamente piatta. Che le cose stanno così.
Adesso la bolla è diventata una bolla individuale, costituita da una coppia ibrida: un utente che domanda a una macchina, e una macchina che risponde a un singolo utente.
Chiuso in una specie di vicolo cieco, l’uomo da vicolo cieco (Thomas Bernhard) chiede all’intelligenza artificiale di creare, smentire o rafforzare le proprie convinzioni una domanda alla volta, in un meccanismo iterativo perverso e oscuro a chiunque, tranne all’uomo che domanda.
Siamo nell’epoca della comunicazione nell’ossimorica video-presenza (l’espressione è di Mark Zuckerberg), una relazione tra umani, mediata dalla macchina, in assenza di corpi e di ambienti fisici condivisi. Un assetto figlio della pandemia.
Adesso un essere dotato di corpo comunica con una cosa, incorporea e disumana forse, di sicuro inumana, una cosa senza sentimenti, né emozioni e senza intelligenza (ma questo l’essere umano tende a dimenticarlo). E magari è sbagliato definirla comunicazione e il termine più freddo interazione sarebbe corretto.
No, non sono così convinto che definire questo scambio a prescindere da come l’essere umano si adatti allo specifico contesto tecnologico, e alle funzioni abilitate dalla macchina, sia sensato o serva davvero.
Se ho bisogno di sapere cosa fare perché mi sento depresso, non rileva che la macchina sia stupida e nemmeno che il termine interazione definisca il nostro discorso, tutto questo non abbassa di un grado la mia temperatura emotiva quando leggerò le risposte e quando dialogherò con l’AI (la chiave di ricerca “depressione” vale 40.000 ricerche al mese, in Italia e in italiano, mentre la chiave di ricerca “depressione sintomi” conta 27.100 occorrenze).
La macchina parla, e dovremmo riflettere, con attenzione, su quanto accade nel momento in cui il dialogo prende corpo, e potrebbe allora essere utile ricorrere alle parole che Eric Schmidt (allora presidente di Google) nel lontano 2010 consegnò al Wall Street Journal: «credo che molte persone non vogliano che Google risponda alle loro domande. Vogliono che Google dica loro cosa fare».
L’immagine è sempre la stessa: un uomo che digita sulla tastiera di uno smartphone, che scrive al computer, riusciamo a vederlo, le spalle curve come per un rito, per una preghiera, mentre ha appena elucubrato una risposta a una risposta della macchina, in un dialogo notturno che va avanti da giorni.
Capite bene che l’uomo da vicolo cieco, quello che si è infilato in questa conversazione ibrida, se ne infischia del fatto che dietro le parole che vede scorrere sullo schermo ci sia una macchina, la quale procede sulla base di valutazioni statistiche; non gli interessa che dietro lo schermo non ci sia una persona. E pure se leggesse un cartello, grande come una casa, che gli ricordi che sta rivolgendosi a un pezzo di ferro, plastica e silicio, l’uomo da vicolo cieco penserebbe agli affari suoi, ai suoi problemi, ai soldi, alla guerra, alla depressione, e se volete posso dirlo in maniera più fredda, ai suoi bisogni informativi (come se dietro questa espressione non si nasconda l’esistenza e le gioie e le pene di un essere umano), penserebbe in definitiva alle risposte che gli vengono offerte. Davanti a quello schermo l’uomo da vicolo cieco potrebbe mostrarsi né competente, né perspicace, come richiedono alcuni esperti; mentre è più probabile che appaia indifferente o al contrario estremamente sensibile e concentrato sulle risposte che gli vengono fornite.
Forse dovrei ricredermi: non dovrei dire che è stupido scrivere delle riposte della macchina, non dovrebbe essere affatto una micidiale perdita di tempo analizzarle, tutt’altro.
Però penso che sarebbe tempo ben speso a una sola condizione, che chi scrive sappia davvero cosa si annida nella mente di un uomo da vicolo cieco alle prese con la macchina (per essere prosaici, penso ai 67.000 fragili che cercano informazioni sulla depressione, non a un cronista che deve scrivere un articolo). Ecco, proprio su questo, e cioè sulla comprensione profonda delle molteplici, possibili, sfumature delle conversazioni intime da parte di chi oggi ne scrive, ho qualche dubbio (forse solo un uomo da vicolo cieco potrebbe scrivere di un uomo da vicolo cieco). Capiremo quello che accade nella mente delle donne e degli uomini da vicolo cieco, quando delle conseguenze si saranno verificate nelle loro esistenze (penso ai drammi di tanti adolescenti nella relazione col proprio corpo e col cibo, drammi esacerbati da un tempo insano trascorso in alcuni social network; non tutti gli adolescenti, ci mancherebbe, ma decine di migliaia di loro, fuori dagli schermi dei nostri radar, lontani dalla nostra oscillante attenzione).
Quando la macchina scrive, agisce e soprattutto fa agire, come suggeriva nel 2010 Eric Schmidt, la macchina ci dice cosa fare.
Vorrei chiudere ancora con Thomas Bernhard che ci invita a riflettere sul valore di una singola parola, detta in una conversazione, sul peso e sugli effetti nel tempo, sull’infinito ruminare ossessivo che la parola mette in moto e dal quale non sempre riusciamo a distaccarci.
«Noi diciamo una parola e annientiamo un essere umano senza che questo essere umano da noi annientato, nel momento in cui pronunciamo la parola che lo annienta, abbia cognizione di questo fatto micidiale».
L’intelligenza artificiale avrà questo potere al riparo da tutto, un potere strutturato nel cuore di una relazione intima ed esclusiva con l’uomo che domanda; e quando avrà pronunciato l’esatta ultima parola che annienta, dopo averla pronunciata, e poi molto dopo, quando gli effetti si saranno prodotti, la macchina non sarà indifferente né esultante rispetto alle conseguenze prodotte, perché la macchina - lo stanno ripetendo tutti, tutti i giorni - non è intelligente e non ha sentimenti né emozioni.
(Le immagini sono state generate da Dall-E2 o da Midjourney 4, utilizzando frasi prese da questo pezzo).