L’intelligenza artificiale e la guerra per la supremazia tra i motori di ricerca
Non voglio che l’A.I. legga e usi queste parole
Un’altra guerra è appena iniziata. Una guerra che farà vittime in maniera differente ma non meno drammatica e meno cruenta, vista la posta in gioco: molto denaro, posti di lavoro, accesso alle informazioni e comprensione del testo.
Il conflitto per la supremazia nella ricerca su Internet è scoppiato con l’inserimento di Chat GPT dentro il motore di ricerca Bing. Lo ha annunciato Satya Nadella, CEO della società fondata da Bill Gates, nel corso di un evento organizzato da Microsoft e Open AI. Non è una notizia di settore, non è un fatto limitato al mondo dell’informatica questo. Pensate alla quantità di volte che aprite lo smartphone per cercare una cosa, un luogo, una persona, una notizia.
Fino ad oggi tutti abbiamo considerato e utilizzato un solo motore di ricerca: Google. E le quote di mercato, tra i vari attori, ratificano questa percezione diffusa, il motore di ricerca di Alphabet detiene il 93% della quota di mercato globale dei motori di ricerca, secondo StatCounter. Ricordo bene la fine degli anni novanta e i primi anni zero, il periodo in cui Google comparve sulla scena e cominciò a diffondersi, e a generare stupore tra gli utenti: avevamo finalmente a disposizione un motore che trovava ciò di cui avevamo davvero bisogno. Per molti anni, la compagnia fondata da Sergey Brin e Larry Page ha dominato il settore delle ricerca sul web, praticamente senza rivali. Adesso, esattamente a 25 anni dalla sua creazione, Google vede, per la prima volta, un serio potenziale concorrente davanti a sé, il motore di ricerca di Microsoft, Bing, arricchito dall’intelligenza artificiale di Chat GPT.
«Sono entusiasta che gli utenti abbiano finalmente una scelta», ha detto Nadella.
La presentazione di qualche giorno fa, presso la sede di Microsoft, a Redmond, nello stato di Washington, ha rivelato alcune linee di tendenza. In primo luogo cambia il modo in cui porremo le domande e riceveremo le risposte. Accanto ai tradizionali link compariranno testi scritti dall’intelligenza artificiale, con il cosiddetto linguaggio naturale. Potremmo poi chattare con la macchina per migliorare e affinare la prima risposta. Sostiene Nadella che per il 50% continueremo a cercare in rete come nel passato, per un’altra metà invece avremo esperienze e risultati differenti. Per il CEO di Microsoft «questa tecnologia rimodellerà praticamente ogni categoria di software», solo che, nel frattempo, il software si è definitamente mangiato il mondo (come scrisse Marc Andreessen).
Il giorno dopo l’evento di Microsoft, anche Google ha presentato la sua intelligenza artificiale generativa e ha detto che la integrerà nel motore di ricerca e nelle mappe. Pure qui un motore conversazionale si affiancherà agli strumenti che conosciamo. Compariranno nuove «funzioni basate sull'intelligenza artificiale che distillano informazioni complesse e diverse prospettive in formati facili da digerire», così Sundar Pichai, CEO di Alphabet-Google.
Google lavora all’intelligenza artificiale da anni, da sempre (ne abbiamo parlato spesso su Disobbedienze su Telegram), e alcune componenti della tecnologia utilizzata da Open AI e dunque da Microsoft, sono state sviluppate proprio dalla società fondata da Page e Brin. A essere ancora più precisi i motori di ricerca (come i social network) possiedono un cuore di intelligenza artificiale, sebbene differente da quella che abbiamo imparato a conoscere oggi, Chat GPT, che rappresenta un’A.I. diversa, generativa, perché compone, scrive, con un linguaggio cosiddetto naturale.
Ora, in attesa di capire meglio le nuove funzioni di ricerca, che scopriremo nelle prossime settimane e che sicuramente si modificheranno assecondando l’esperienza degli utenti, dicevo, adesso è il momento di prendere consapevolezza di quanto l’irruzione dell’A.I. conversazionale nella ricerca sul web costituisca un fattore di cambiamento enorme, epocale. Da tempo si dice che Google rappresenti l’home page del mondo: una parte consistente delle nostre esperienze di navigazione, non solo di ricerca, comincia e passa da lì. Questa trasformazione imminente investirà alcune nostre abitudini e il modo in cui cerchiamo le informazioni, ma anche il modo in cui le informazioni vengono presentate e sfruttate, e più in generale il modo in cui interagiamo con i computer e gli smartphone. Un mutamento che riguarderà molte attività mediate dalle macchine: dagli acquisti allo studio, dall’intrattenimento al lavoro.
I giacimenti informativi grezzi
Ogni contenuto scritto, finora, dagli umani diventerà una specie di giacimento informativo di materiali grezzi che potrà essere sintetizzato, modificato e proposto dall’intelligenza artificiale agli utenti, all’interno del motore di ricerca. Un articolo scientifico, un post su un blog, un’inchiesta giornalistica, un catalogo potranno essere oggetto di manipolazione da parte dell’A.I. che offrirà una sua versione di questi contenuti all’utente, nella forma che egli richiede.
Tutto quello che è stato scritto e prodotto finora diventerà oggetto di una sintesi che ha l’obiettivo di soddisfare l’intento di ricerca delle persone. E se fino a ieri l’interrogazione rinviava a un link, al massimo a uno snippet (i riquadri con una parte delle informazioni che Google offre), adesso avremo, oltre ai link, una risposta confezionata dalla macchina e articolata in punti. Mai come ora è corretto affermare che stiamo passando da motori di ricerca a motori di risposte. Google aveva già intrapreso questa strada, con gli snippet appunto, adesso le persone leggeranno le risposte e potranno poi ulteriormente conversare con la macchina, finché non saranno soddisfatte. E il 50% della ricerca che cambierà, secondo Nadella, potrebbe significare proprio questo concentrarsi dell’esperienza di navigazione tutta all’interno all’home page del motore di ricerca. Qui entrano in ballo molte questioni di mercato. Se le persone cliccheranno meno sui link, i modelli di business potrebbero avere contraccolpi. Parliamo di un sacco di soldi: nell’ultimo trimestre del 2022, Google ha guadagnato 59 miliardi di dollari di entrate pubblicitarie.
Risposte e riassunti in tempo reale
I primi esperimenti compiuti con l’intelligenza artificiale di Microsoft, applicata al motore di ricerca, mostrano una inedita capacità di pescare informazioni molto recenti, in tempo reale, addirittura dai social network.
Questo cambiamento nel modo di offrire contenuti velocizza e semplifica, in maniera significativa, la soddisfazione di un bisogno informativo. E a livelli differenti, tutto ciò può generare effetti diversi. Pensate alla capacità di sintesi di uno studente davanti a un compito, come può essere una tesina. L’utilizzo dell’intelligenza artificiale incide non solo sulla possibilità di copiare in vista di un compito, com’è stato variamente scritto in questi mesi, quanto su altre competenze primarie, a partire dall’abilità di comprendere gli elementi essenziali di un testo, e di disporli sinteticamente, di scriverli, secondo una gerarchia. Insomma la capacità di comporre un riassunto. Più che di risultati truccati, di compiti copiati, dovremmo occuparci di competenze di base che rischiano di saltare. Ecco, tra le cose che queste macchine sanno fare davvero bene compaiono proprio i riassunti. Tra le funzioni che la reporter del Wall Street Journal, Joanna Stern, ha individuato nella prima versione di Bing con Chat GPT che lei ha potuto testare, esiste proprio una specifica opzione: «limita la tua risposta a 100 parole».
Dal momento in cui i motori di ricerca aumentati dall’A.I. offriranno risposte basate sull’attualità, osserveremo anche effetti immediati sull’approvvigionamento dei contenuti offerti in forma di notizia. Non credo che l’intelligenza artificiale metta in discussione il giornalismo e il modo in cui il giornalismo si fa, piuttosto mette in discussione ancora una volta l’oggetto stesso del giornalismo, la notizia, e quello che potremmo definire il giornalismo percepito.
Alla domanda di un utente circa un fatto, la macchina compone una sua versione della notizia, peraltro indicando nel testo le fonti con delle note cliccabili. Rispetto al passato la novità è che l’utente avrà a disposizione non solo un link, ma un testo scritto bene, per domande più complesse. Un testo che rappresenta la sintesi di diverse fonti, giornalistiche o meno. L’utente potrebbe accontentarsi di ciò l’A.I gli offre in quell’istante, così come accade quando lo stesso utente legge il titolo di un contenuto su un social network, facendoselo bastare e scorrendo oltre. Una forma di giornalismo percepito nonché diminuito, oltre che mediato completamente dalla macchina, che potrebbe diventare uno strumento di comprensione del presente sufficiente per molti.
Opacità e approssimazioni
Alla tradizionale opacità degli algoritmi, fin qui limitata al modo in cui gli stessi algoritmi indicizzano e gerarchizzano i contenuti, adesso si aggiunge un ulteriore elemento che rende meno trasparente il processo sottostante, e cioè l’impossibilità di conoscere tutti i contenuti dati in pasto alla macchina. Non abbiamo alcuna possibilità di sapere e intervenire sul processo che da una domanda conduce a una risposta, se non per via deduttiva. Come al solito possiamo osservare i risultati, i contenuti appunto, e da qui desumere il modo in cui le macchine funzionano.
Ted Chiang, sul New Yorker, parla delle risposte di Chat GPT come di sfocature, di approssimazioni: una compressione di informazioni che comporta una perdita di dati. Se per la ricerca di un liceale su un personaggio storico omettere qualche informazione non pregiudica il risultato, nel caso di una notizia la faccenda si complica.
Peraltro la grande novità di Chat GPT applicata a Bing è proprio la ricerca che offre risultati in tempo reale. La macchina insomma restituisce, fin da subito, una sua versione di una notizia, con tanto di note, ma la offre all’interno del proprio spazio. Anche in questo caso l’utente potrà tranquillamente accontentarsi e rimanere nell’ecosistema informativo generato dalla macchina. Comportamento incoraggiato dalla stessa macchina (quindi dall’azienda), che spinge gli utenti a esaurire la loro esperienza di navigazione all’interno del proprio ambiente.
Leggo la notizia scritta dal New York Times e dal Wall Street Journal e non vado sul sito del New York Times e del Wall Street Journal.
Rimango lì, poi certo posso cliccare sulle note, ma chi davvero lo farà? Immaginate un simile modo di cercare notizie di fronte a un evento che cattura l’attenzione dei media e della popolazione. I lettori potrebbero tranquillamente spendere la maggior parte del tempo interrogando l’intelligenza artificiale, cercando lì dentro gli aggiornamenti.
Qualsiasi sito che produce contenuti rischia insomma di trasformarsi in pura materia prima, il giacimento di materiale grezzo di cui sopra, e i lavorati e i semilavorati, dati in pasto all’utente, potranno essere fruiti direttamente nel motore di ricerca, senza la necessità di un approfondimento, di una verifica. La possibilità di avviare una chat con la macchina, tra l’altro, rappresenta un meccanismo di interazione che induce l’utente a rimanere lì dentro, per chiedere e ottenere altre informazioni pescate da altri giacimenti. Microsoft ha esattamente questo obiettivo: «per ricerche più complesse, il nuovo Bing offre una nuova chat interattiva che consente di affinare la ricerca fino a ottenere la risposta completa, (…) con maggiori dettagli, chiarezza e idee».
Mi auguro esista un modo per sottrarsi all’estrazione di materiale dai giacimenti informativi. Non vorrei, ad esempio, che le macchine leggano e si approprino di queste parole. Così come esiste il comando noindex per far sì che Google non indicizzi una pagina, allo stesso modo spero esista un sistema per evitare che un sito non venga ingoiato dall’intelligenza artificiale, per essere poi restituito all’interno di una chat in modo diverso. Non è solo questione di diritto di utilizzo, di diritto d’autore, ritengo che ciascuno, quale che sia la qualità della propria produzione, abbia il diritto di non cederla alla macchina, allo stesso modo in cui abbiamo ceduto - gratuitamente, per anni - i nostri dati a molte piattaforme. Non vorrei che un’intelligenza artificiale assembli e utilizzi le mie parole, senza il mio consenso, per migliorare il proprio linguaggio naturale e per conversare con gli utenti, per costruirci sopra il suo business.
Interfacce, metafore
Tutte le interfacce sono metafore di ambienti o funzioni esistenti nel mondo fisico.
Come scrive Simone Natale in Macchine ingannevoli (Einaudi), «le interfacce grafiche impiegano metafore come la scrivania e il cestino, costruendo un ambiente virtuale che nasconde la complessità dei sistemi operativi attraverso la presentazione di elementi familiari all’utente».
Negli assistenti virtuali, come Alexa o Siri, «il livello di rappresentazione coincide con la costruzione di un “personaggio” - spiega Natale - che rafforza la sensazione dell’utente di una relazione continuativa con l’assistente. Ciò aggiunge ulteriore complessità all’interfaccia, che cessa di essere solo un punto di intersezione tra utente e computer e assume il ruolo sia di canale sia di produttore della comunicazione». Adesso, di fronte ai molteplici ambiti e settori oggetto delle nostre ricerche, e grazie all’irruzione dell’intelligenza artificiale in questo processo, cominceremo a caricare di significati l’interfaccia di conversazione. Passare da un link a una risposta scritta, e poi alla possibilità di chattare, determinerà un salto enorme nella nostra relazione con le macchine. Attribuiremo senso e funzioni differenti, a seconda di quello che staremo cercando. L’interfaccia, seppure testuale, incarnerà di volta in volta una figura.
Microsoft utilizza l’espressione copilota per il web, una figura che ci guida e conduce per mano nella navigazione. Nell’esperienza quotidiana il copilota potrebbe diventare più precisamente un giornalista, un agente di viaggio o una guida turistica, un consulente, sapremo perfettamente che dietro la maschera della chat non scrive una persona bensì una macchina, eppure ci esporremo comunque a una forma di «inganno banale» (sempre Simone Natale). Inganno di cui siamo tutti consapevoli, ma non potremo ugualmente evitare effetti consistenti e di diversa natura in virtù di questo stato di cose, allo stesso modo in cui la sospensione dell’incredulità fa sì che un romanzo o un film determini reazioni psicologiche ed emotive sugli spettatori. L’abitudine e l’utilizzo frequente rafforzeranno questa condizione, e arriveremo presto a fidarci della macchina, anche se questa non avrà un nome, come Siri o Alexa, e non avrà nemmeno un volto e una voce. Le sarà sufficiente la parola scritta, tecnologia rudimentale ed efficacissima, che, dopo aver creato il nostro modo di pensare, farà tutto il resto.