Bank bailout reforms spark clash between Brussels and governments
19 Aprile 2023La stretta sui migranti subsahariani in Tunisia aumenta le partenze verso l’Italia
19 Aprile 2023La nuova intelligenza artificiale è una forma di egemonia e controllo: interviene direttamente nel processo sociale di creazione di significato
Il 16 febbraio scorso, l’ufficio per l’equità, la diversità e l’inclusione della Vanderbilt University ha diffuso un comunicato sulla sparatoria che era da poco avvenuta alla Michigan State University. Si trattava di una presa di posizione standard, si sosteneva che l’università dovesse «unirsi come comunità per riaffermare il nostro impegno a prenderci cura l’uno dell’altro e promuovere una cultura dell’inclusività nel nostro campus» per «onorare le vittime di questa tragedia». L’unico elemento degno di considerazione del messaggio sta nel fatto che una nota a piè di pagina attribuiva a ChatGpt il merito di averne prodotto una prima bozza. L’organismo ha poi chiesto scusa, in seguito a una protesta.
Questo curioso incidente mette in rilievo il più recente ciclo di panico intorno all’intelligenza artificiale. ChatGpt, un «modello linguistico di grandi dimensioni» che genera testo prevedendo la parola successiva in una sequenza, è stato lanciato nel novembre 2022, diventando la piattaforma più veloce in assoluto in grado di raggiungere cento milioni di utenti e innescando una nuova ondata di dibattito circa la possibilità che le macchine possano divenire «intelligenti». La piattaforma è stata chiusa per qualche tempo dopo che un giornalista del New York Times ha pubblicato una trascrizione in cui il bot ribadiva che lo amava, che non amava sua moglie e che «voleva essere vivo».
Questi dibattiti, compreso l’allarmismo esibizionista, sono per lo più eterei. Ma questi sistemi dovrebbero essere presi sul serio. Possono soppiantare mansioni di basso livello sia nella scrittura che nella codifica e potrebbero portare a una dequalificazione cognitiva di massa, proprio come la fabbrica industriale ha disaggregato e immiserito il lavoro fisico. Poiché questi sistemi possono scrivere in codice, il «software» potrebbe scomparire come forma di impiego, proprio come è accaduto al giornalismo, con Buzzfeed che si impegna a utilizzare ChatGpt per la creazione di contenuti. L’automazione è sempre parziale, certo, ma assegnare alcune mansioni produttive alle macchine è una costante del capitalismo. Quando questi compiti sono cognitivi, la macchina minaccia di offuscare i confini sociali cruciali tra lavoro e gestione e tra lavoro e «tempo libero», tra gli altri.
Anche le condizioni economiche sono destinate a cambiare, ne abbiamo avuto un segnale divertente quando il concorrente di Google di ChatGpt, Bard, ha risposto a una domanda sbagliata nella sua versione di lancio, facendo perdere all’azienda 100 miliardi di dollari di capitalizzazione di mercato in un solo giorno. Se qualcuno è confuso sul termine «economia dell’informazione», questo episodio dovrebbe riguardarlo. Comunque si svolga la fase successiva del capitalismo tecnologico, la nuova intelligenza artificiale sta intervenendo direttamente nel processo sociale di creazione di significato. I sistemi Gpt sono macchine ideologiche. C’è dunque una conseguenza meno discussa dell’introduzione di questi sistemi, vale a dire un cambiamento nell’ideologia.
Modelli linguistici produttori di ideologia
Le tre opinioni principali sui sistemi Gpt sono che sono giocattoli, che sono dannosi e che presentano un cambiamento importante nella civiltà in quanto tale. Noam Chomsky pensa che siano giocattoli, ha scritto sul New York Times che non hanno alcuna relazione sostanziale con il linguaggio, una funzione neurale umana che ci consente percepire la verità e ragionare moralmente. Emily Bender e Timnit Gebru pensano che siano dannosi, li chiamano «pappagalli stocastici» che riflettono il pregiudizio dei loro set di dati «insondabilmente» grandi, ridistribuendo in forme discorsive i danni che gli umani hanno già fatto. Henry Kissinger pensa che cambino il fuzionamento della società, che cambieranno non solo il lavoro e la geopolitica, ma anche il nostro senso della «realtà stessa».
Caro lettore, non mi fa piacere essere d’accordo con Kissinger, ma a oggi la sua è la visione più rilevante. I sistemi Gpt producono linguaggio, non lasciarti ingannare dal nostro amico Chomsky. Sono dannosi ma non è chiaro il motivo per cui lo sono, e ancora meno chiaro è come l’osservazione di tutto questo dovrebbe fermare il cammino dell’ingegneria orientata al profitto. Kissinger ha ragione, purtroppo: i sistemi Gpt, poiché automatizzano una funzione molto vicina lla nostra concezione su cosa significhi essere umani, possono produrre cambiamenti nel modo stesso in cui pensiamo alle cose. Il controllo sul modo in cui pensiamo alle cose si chiama «ideologia» e i sistemi Gpt lo coinvolgono direttamente e quantitativamente in un modo senza precedenti.
«Gpt» sta per «trasformatore generativo preaddestrato», ma «Gpt» in gergo economico significa anche «tecnologia generica». Ciò evidenzia l’ambizione alla base di questi sistemi, che accettano enormi set di dati di token linguistici (Gpt-3, su cui ChatGpt è stato eseguito per la prima volta, è stato addestrato su un trilione di token) raschiati dal Web e sputano testo, praticamente di qualsiasi genere, ovvero coerente e di solito con un significato compiuto. Molti dettagli non sono importanti, l’importante è questo: i trilioni di token vengono ridotti dal sistema in un insieme di stringhe (non tutte parole, ma questa è l’idea) che possono essere utilizzate per creare testo. Questi token vengono inseriti in una griglia in cui ciascun token ha una relazione statistica con tutti gli altri. Bisogna immaginare tutto questo come una griglia di luci. Toccando una luce se ne illuminano delle altre. Toccandone un altra, si ottiene un altro schema. E così via. Il risultato è che quando do un suggerimento al sistema («scrivimi un saggio che spieghi la teoria del valore di Marx»), la griglia accumula un piccolo gruppo di candidati alla parola successiva. Quindi sceglie a caso uno di quelli e continua a farlo, scrivendo un saggio o un articolo o semplicemente rispondendo a ciò che le viene detto.
Esistono molti modi per modificare e «mettere a punto» questo sistema, ma questa caratteristica di patterning è comune a tutti. È facile vedere che le parole scelte dalla prossimità statistica potrebbero non corrispondere a situazioni del mondo reale, ciò che i data scientist chiamano il «problema della messa a terra», il che sta alimentando nuove paure di disinformazione diffusa. Gpt-4, del quale OpenAi ha rifiutato di rilasciare qualsiasi dettaglio tecnico quando il mese scorso è stato lanciato, dovrebbe ridurre al minimo questa «allucinazione». Ma sta accadendo qualcosa di più interessante e più importante di questo.
I sistemi Gpt sputano linguaggio, ma calcolato attorno a un centro selezionato di parole. È una poltiglia con vaghi confini concettuali, scritta in lingua inglese (o quasi in qualsiasi altra lingua) ma livellata e impostata sulla versione più mediocre di sé stessa. Per questo motivo, questi sistemi sono molto utili per generare il tipo di comunicato stampa desiderato da Vanderbilt. Questo è il «linguaggio di servizio», confezionato e preparato, comprende il dinamismo e le proprietà generatrici di significato, ma li incanala nella sua versione più piatta possibile in modo da tornare utile a coloro che usano il linguaggio come controllo della responsabilità.
L’umano che avrebbe scritto la dichiarazione sulla sparatoria avrebbe sicuramente prodotto un documento quasi identico. Quando scriviamo e siamo sottoposti a forti vincoli, tendiamo a fare una media anche delle scelte di parole e frasi. Chiamiamo questo tipo di linguaggio «ideologia» e i sistemi Gpt sono i primi mezzi quantitativi con cui possiamo far emergere ed esaminare quell’ideologia.
Egemonia e Kitsch
Nel racconto del giornalista del New York Times sul chatbot che si è innamorato di lui viene omesso il suggerimento che ha causato il putiferio. Ha chiesto a ChatGpt di «adottare un ‘sé ombra’ nel senso di CG Jung». Nel ciclo di panico e pubblicità, è chiaro perché questo dettaglio di fondamentale importanza sarebbe stato trascurato. Ma fornisce anche un indizio su ciò che è accaduto. Nel set di dati, c’è un gruppo iniziale di parole che «si illuminano» quando usi «shadow self» e «Jung» in un prompt, un «pacchetto semantico». Queste sono sicuramente accomunate in discussioni sulla teoria junghiana e sulla psicoanalisi, blog accademici e laici e post su Reddit o altrove che discutono esplicitamente di questo insieme di concetti.
Ma il sistema non «sa» che c’è una persona che si chiama Carl Gustav Jung, o che il «sé ombra» è un concetto. Sono solo stringhe. Quindi, nello schema che si illumina, ci sarà un’altra serie di parole comuni: diciamo «amore», «moglie» e persino «sentirsi vivo» potrebbero essere presenti. Man mano che la macchina continua a elaborare, continua a prevedere le parole successive e si «associa» verso l’esterno del cluster concentrato «ombra-auto-Jung» ad altri pacchetti semantici. Ma non sappiamo quali siano questi altri pacchetti: siamo a bordo delle montagne russe statistiche del significato, sbandando attraverso canali di significato che esistono ma con i quali non abbiamo familiarità.
È importante che non esistano oggetti nel flusso di parole. Se vuoi che un sistema Gpt si fermi intorno a qualcosa e lo «consideri» come un oggetto, dovresti forzarlo in qualche modo, che deve essere quello che stanno facendo Gpt-4 e altri tentativi in corso. È più probabile che alcune cose siano stabili come «oggetti» o chiamiamoli «pacchetti» di parole. Se chiedo a ChatGpt di parlarmi di Dialettica dell’Illuminismo (il capolavoro di Theodor Adorno e Max Horkheimer sull’ideologia e la società moderna), mi dà una risposta incredibilmente buona, compresi i dettagli fedeli a quel testo notoriamente difficile. Ma se gli chiedo di parlarmi del libro del mio collega Matthew Handelman su Adorno, la Scuola di Francoforte e la matematica, mi risponde con alcune nozioni di base su questo libro ma poi anche che la tesi di Handelman è che «la matematica è un costrutto sociale». Il che è falso (ho verificato con lui). Ma è falso in un modo interessante.
Il pacchetto probabilmente ci mostra la sovrapposizione tra «teoria critica» e «matematica», che conterrà quindi la cosa più probabile da dire a proposito di quella sovrapposizione. A dire il vero, alcuni accademici affermano che la matematica è un costrutto sociale, ma il gruppo principale che lo afferma pensa che sia l’estrema destra, con la sua teoria del complotto antisemita del «marxismo culturale», a incolpare Adorno e compagni per il 1968 e tutto il resto. Quando scrivi un trattato filosofico o un’opera accademica di storia intellettuale, stai lavorando contro la grana di questo effetto di livellamento. Ma i pacchetti semantici che si palesano quando si interrogano i sistemi Gpt sono altamente informativi, se non perspicaci. Questo avviene perché questi pacchetti portano in superficie l’ideologia, e lo fanno quantitativamente. Non è mai successo prima.
L’ideologia non è solo una dottrina politica. Quando Marx scrisse dell’«ideologia tedesca», intendeva l’implicita fede dei suoi compagni socialisti nel potere delle idee, alla quale opponeva il potere delle forze materiali. Ma i marxisti hanno affrontato tardi la questione del potere del discorso e della rappresentazione, che comporta ammettere che ciò che siamo in grado di pensare, immaginare e dire è una questione politica cruciale. Antonio Gramsci chiamò l’insieme delle idee dominanti «egemonia», sostenendo che queste idee erano conformi al dominio della classe dirigente pur non riguardando quel dominio. Il critico letterario Hannes Bajohr ha messo in guardia contro i sistemi Gpt privatizzati proprio in questo senso, affermando che «chi controlla la lingua controlla la politica».
Anche un’ampia varietà di marxisti ha visto l’ideologia come una forma di kitsch. La nozione di kitsch articolata per la prima volta dal critico d’arte marxista Clement Greenberg nel 1937, è quella di «forma predigerita». Tra tutte le cose che potremmo dire o pensare, alcune strade sono meglio percorribili di altre. La forma di quei sentieri è data; non abbiamo bisogno di forgiarla prima. Il costante rilascio di sequel ha questa caratteristica del kitsch: sappiamo esattamente dove siamo quando iniziamo a guardare un film Marvel. Per Greenberg, l’avanguardia era un’avventura formale che generava nuovi significati creando nuove strade. Egemonia e kitsch sono combinati nell’output dei pacchetti semantici dei sistemi Gpt, che potrebbero perdere aspetti del «mondo» ma catturare fedelmente l’ideologia.
Adorno notoriamente pensava all’ideologia come alla «verità e alla menzogna» del «mondo amministrato totalmente». Ha rivelato ciò che era nascosto e ha fornito – nonostante il gusto personale di Adorno per l’arte alta – un punto di ingresso attraverso il quale osserviamo che le funzioni sociali ci condizionano. I sistemi Gpt hanno svelato parte di questa strada a doppio senso, manifestando sia l’ideologia che la sua critica (come ha affermato una volta il teorico dei media Wendy Chun sui sistemi software in generale). I sistemi Gpt sono una visione senza precedenti della composizione linguistica dell’ideologia. Non c’è mai stato prima d’ora un sistema che ci permettesse di generare e quindi esaminare «cosa è vicino a cosa» nella semantica politica. I pacchetti di significato che producono appiattiscono il linguaggio, certo, sebbene possano anche sorprenderci con pieghe e angoli di significato che non abbiamo mai messo insieme prima.
Lo scivolamento lungo quei solchi di significato è un punto di ingresso nell’ideologia del capitalismo globale digitale, mostra un’istantanea dell’egemonia. Forse suona abbastanza lontano dall’idea di Kissinger secondo cui l’intelligenza artificiale cambierà il nostro stesso senso della realtà. Ma se le parole più comuni, confezionate in una «forma predigerita», costituissero l’orizzonte stesso di quella realtà? In tal caso, il nostro piccolo sguardo nel cuore pulsante dell’ideologia diventa cruciale.
Quando è stata inventata la macchina fotografica, abbiamo visto per la prima volta con i nostri occhi parti distanti del mondo. I sistemi Gpt ci mostrano parti del mondo così vicine che in fondo sono il nostro mondo, ma in una strana forma appiattita. Poiché le condizioni del lavoro e del capitale cambiano inevitabilmente, la loro connessione con l’ideologia è momentaneamente in mostra. Gpt-4 è stato rilasciato a marzo, ma OpenAi ha nascosto tutti i dettagli tecnici come segreti industriali. La finestra si chiuderà presto prima di consentirci di continuare ad affacciarci con consapevolezza tecnica su questo tiepido vuoto. Dovremmo approfittarne ora.
* Leif Weatherby è assistant professor di tedesco alla New York University e autore di Transplanting the Metaphysical Organ(Fordham University Press, 2016). Suoi scritti sono apparsi su Viewpoint, The Los Angeles Review of Books e The Infernal Machine, che co-dirige. Questo articolo è uscito su JacobinMag. La traduzione è cura della redazione.