È impossibile ignorare il rumoroso dibattito sull’intelligenza artificiale causato dal lancio di ChatGPT, uno strumento che OpenAI, ha reso pubblico lo scorso novembre. Si può interagire con un bot che risponde a domande scritte, instaurando una conversazione plausibile su temi anche complessi, eseguendo ordini per realizzare testi scritti, componimenti, poesie, sceneggiature o piccoli saggi, con bibliografia inventata inclusa. Il bot commette errori stupidi, mentre fornisce repliche a questioni scientificamente difficili in modo semplice e pertinente, mischiando risposte giuste e sbagliate. È un sistema sintattico, non sa ciò di cui parla, ma è convincente nel simulare interazioni testuali.

Siamo costretti a svolgere lo scomodo ruolo di correttori della macchina che si presume intelligente, ma è inaffidabile. Nonostante le imprecisioni, la chat ha conquistato l’interesse di Microsoft che vorrebbe integrarla nel suo motore di ricerca Bing, e per questo investirà nel progetto altri 10 miliardi di dollari, portando la valutazione di OpenAI a 29 miliardi.

I modelli di linguaggio generativi a cui appartiene ChatGPT, sono “pappagalli stocastici”, o nuove versioni della ninfa Eco, capace di replicare ogni discorso ascoltato, senza associare alle parole significato o comprensione. Molte delle nostre attività intellettuali passano per la scrittura di testi e il sistema può simulare una capacità linguistica associata a livelli cognitivi medio-bassi o in formazione. La questione dei compiti a casa, infatti, è una delle maggiori preoccupazioni.

Come sarà possibile accertare che i compiti assegnati come temi o risposte a domande scientifiche siano davvero il frutto del lavoro cognitivo degli studenti? Il dato è tratto: bisognerà conviverci anche a scuola, immaginando strategie, selezionando attività e progettando metodi per lo sviluppo della creatività degli studenti. Il problema non è tanto la capacità reale dei bot, ma la tendenza a delegare loro funzioni umane, compresa quella artistica.

I modelli generativi per la riproduzione del linguaggio, oltre che delle immagini (Dall-E, Midjourney, Stable Diffusion e altri), sono complessi sistemi sociotecnici che hanno al loro interno diversi strati di attività svolti direttamente dall’intelligenza umana. Ad alto livello troviamo i programmatori che definiscono regole e vincoli per analizzare enormi quantità di dati, disponibili nei corpora testuali delle pagine web realizzate da persone, o nelle immagini usate per l’addestramento.

LA REDAZIONE CONSIGLIA:

Dieci anni senza Aaron Swartz. La lotta continuaCi sono anche altri interventi umani come segnala un articolo di Billy Perrigo del 18 gennaio scorso su The Time: lavoratori kenioti pagati meno di 1.50 dollari all’ora, impegnati, per conto di OpenAI, a etichettare discorso di odio, espressioni di violenza sessuale e altro materiale esplicito per insegnare alla macchina a non riprodurre certe frasi. L’educazione sentimentale della macchina, potremmo dire. Lavoratori sfruttati, parte integrante del complesso sistema industriale che ha contribuito ad automatizzare il servizio.

Altri soggetti umani intervengono per i controlli di qualità, compresi noi che interroghiamo il Chatbot e restituiamo il nostro feedback, a sua volta analizzato da personale specializzato. Non si tratta, quindi, di un apparato autonomo e indipendente, ma della cattura di un processo di intelligenza collettiva, standardizzata, e intrappolata in un sistema che la restituisce nella forma di una mimesis prefabbricata e ripetitiva. Il meccanismo calcola la probabilità statistica che a una certa parola o insieme di parole (token) ne segua un altro. Per questo predilige affermazioni convenzionali, banali, normali.

ChatGPT ci potrebbe aiutare a distinguere tra differenza e ripetizione nel linguaggio. Le formule retoriche inutili, contro le parole che non abbiamo mai pensato, imprevedibili. Potremmo confinare alla macchina i convenevoli noiosi. Ma per farlo dovremo governare la politica del processo di automazione. Viviamo tempi di interregno, come suggerisce Benedetto Vecchi, nel suo libro postumo Tecnoutopie (DeriveApprodi, 2022), citando Gramsci: il vecchio non è ancora morto e il nuovo stenta a nascere.

Non ci sono esiti deterministici nell’adozione delle tecnologie. Occorre, però, gestire i processi e non esserne gestiti, pena il percorso a ritroso dalla liberazione che la scienza moderna ci ha offerto, con il rientro nella minorità dalla quale i Lumi ci avevano faticosamente estolto. Che ne sarebbe della scrittura se il sistema dovesse addestrarsi solo su testi che ha autoprodotto, e le persone non sapessero più leggere o scrivere?

Potremmo entrare, forse, in un’era in cui creazione e trasmissione della conoscenza non dipenderebbero solo da una agency umana, né dovrebbero per forza avvenire in forma testuale. Potremmo sperare in una eterogenesi dei fini delle macchine, che le sottrarrebbe al loro destino normativo e prevedibile, ma è improbabile. La scrittura è una tecnologia inventata poco più di cinquemila anni fa, e potrebbe finire come metodo per esternalizzare la memoria umana. Il futuro sarà il risultato di decisioni che prenderemo insieme.

Billy Perrigo Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic The Time, 18 Jan 2023