Geoffrey Hinton ha 75 anni ed è ritenuto il pioniere dell’intelligenza artificiale. Nel 2018 ha vinto il Premio Turing e se negli ultimi anni c’è stato un boom di AI (Artificial Intelligence) lo si deve anche al suo ingegno e alla dedizione del suo gruppo. Nel 2012 insieme a due studenti dell’Università di Toronto – uno di questi è Ilya Sutskever, oggi attivo per OpenAI – creò la tecnologia su cui i colossi dell’hi tech si basano per sviluppare software di AI con ChatGPT.
Hinton, origini britanniche e passaporto canadese, lavora a Google dal 2013 quando la sua società venne comprata dal colosso di Mountain View ingolosito dal software di deep learning (quelli alla base della catena che ha al culmine gli applicativi come ChatGPT e Bard) che consentiva di identificare oggetti semplici analizzando una mole di foto.
Il professor Hinton ha lasciato la casa madre Alphabet il mese scorso. Il 27 aprile ha incontrato il ceo Sundar Pichai e gli ha detto che era tempo di fare un passo indietro. Forse toccando con mano le potenzialità dell’AI, Hinton ha deciso di denunciare con un megafono privo di condizionamenti i pericoli per il mondo dello sviluppo a tappe forzate degli strumenti dell’intelligenza artificiale. «Voglio poterne parlare senza preoccuparmi dell’impatto che le mie parole avranno su Google», ha detto in un’intervista al New York Times.
Quello che spaventa Hinton è quanto già altri intellettuali – come Yuval Harari, uscito pubblicamente con un saggio sul New York Times il mese scorso – e ricercatori hanno denunciato: ovvero una corsa sfrenata al rialzo fra le aziende allo sviluppo di un sistema che potrebbe creare segni e codici in numero maggiore rispetto a quelli generati dagli uomini. E stravolgere così, con un linguaggio nuovo e criptico, un impianto valoriale ed etico, impedirci di distinguere il vero dal falso e gettare il mondo in un caos primordiale da cui uscirebbero vive solo le macchine guidate dall’AI .
L’incubo è quello che il 29 marzo lo scrittore Eliezer Yudkowsky su Time aveva riassunto con «estinzione del genere umano» proponendo la drastica soluzione: «Il mondo per affrontare l’Intelligenza artificiale? Chiuderla». «La distruzione della civiltà» è anche una delle preoccupazioni di Elon Musk anche se il patron di Tesla e di Twitter è impegnato nello sviluppo della tecnologia. Il 14 aprile ha annunciato infatti la creazione di una società, X.AI. Corp, dopo che nel 2015 aveva co-fondato OpenAI prima di lasciare la compagnia nel 2018. Nell’azienda che avrà sede in Nevada lavorerà Igor Babuschkin, già a DeepMind, il braccio di Alphabet attivo nella IA.
La rapidità con cui questo scenario catastrofico si realizzerebbe è l’elemento di novità più marcato. Al New York Times, lo scienziato ha detto che «anch’io anni fa pensavo che l’intelligenza artificiale potesse diventare più intelligente di noi, ma, come altri studiosi, la ritenevo una possibilità remota: credevo comunque mancassero dai 30 ai 50 anni, forse di più. Ma non è così».
Il processo di dominio è ritenuto rapido, fulmineo rispetto alle previsioni, ma avviene comunque per tappe: la prima è la sostituzione di alcuni lavori; quindi, l’intelligenza artificiale si sostituirà all’uomo persino nella scrittura di codici e algoritmi che la alimentano diventando in pratica auto-sussistente, un Super Uomo capace di schiacciare il genere umano.
Alcuni gradini di questa «discesa agli inferi», sono già stati calpestati. Il direttore esecutivo di IBM, Arvind Krishna, ha detto che la società intende non assumere più persone per ricoprire ruoli e fare cose che possono essere fatte dalle macchine a guida IA. In un’intervista a Bloomberg Krishna ha fornito anche dei numeri: ci sono 26mila ruoli dentro IBM che non implicano un contatto con il cliente, il 30% di questi nell’arco di 5 anni verranno chiusi e al loro posto saranno “assunti” dei software.