L’impiegato di Bitonto «curioso ed educato»
12 Ottobre 2024Van Halen – Runnin’ With The Devil
12 Ottobre 2024ELZEVIRO
Guardo il mio cane correre nel giardino. Lo chiamo e gli dico “pappa”. Va verso la ciotola. Accendo il portatile e faccio una ricerca sul cibo per cani. Voglio cambiarlo, perché un amico mi ha detto che ogni tanto si deve fare. Trovo quale cibo comprare. Chiamo il mio amico e lo ringrazio. Tre interazioni con tre entità diverse: un animale, una macchina, un umano. Tutte gradevoli, naturali, normali. Gli umani e gli animali hanno in comune l’intelligenza, la capacità di provare emozioni, sentimenti, di porsi e raggiungere obiettivi, di sopravvivere in ambienti ostili. Ma oltre all’intelligenza gli umani sono dotati di coscienza, intesa sia come consapevolezza del mondo che li circonda che come insieme di valori da rispettare per condividere il contesto sociale a cui appartengono. La realizzazione di macchine dotate di intelligenza pone il problema di dotarle di una qualche forma di coscienza che, per differenziarla da quella umana, potremmo chiamare “essenza”. I sistemi attuali, soprattutto quelli basati sull’intelligenza artificiale generativa, possiedono una forma rudimentale di essenza consapevole. Sono stati addestrati utilizzando enormi quantità di testi, immagini, filmati, mediante i quali hanno appreso un modello del linguaggio che consente loro di parlare, di riconoscere immagini e di generarne altre, più o meno reali. La loro conoscenza del mondo è mediata da queste informazioni ma, come spiega con grande chiarezza Nello Cristianini nel suo ultimo saggio Machina Sapiens. L’algoritmo che ci ha rubato la conoscenza (il Mulino, pagine 160, euro 15,00), non garantisce loro una vera e propria consapevolezza che renda capaci tali sistemi di rispondere a semplici domande sul mondo fisico. Forse dovremo attendere tantissimi anni, quando i primi robot antropomorfi accumuleranno abbastanza informazione sensoriale da conoscere ciò che li circonda. Per quanto riguarda la componente etica dell’essenza, possiamo constatare che
i sistemi attuali ne sono sostanzialmente privi.
Proprio in questi mesi stiamo assistendo a un clamoroso esempio di sistemi di AI generativa che esibiscono un comportamento totalmente privo di etica: la generazione di foto e filmati falsi (e spesso improbabili) con protagonisti Kamala Harris e Donald Trump. Non si può imputare loro la mancanza di etica che risiede, invece, in chi li ha usati per inquinare la campagna elettorale statunitense. Se l’etica è assente nei sistemi di intelligenza artificiale cosa si può fare per farla nascere e crescere in armonia con i fondamentali principi dell’uomo? Una strada è progettarla in modo che sia presente sin dall’inizio nei meccanismi di base, così come la sicurezza viene progettata negli impianti industriali. I criteri devono essere ispirati a principi di trasparenza, spiegabilità, rispetto di regole predefinite e inviolabili. Devono essere chiariti i meccanismi di responsabilità che ne governano il funzionamento, separando la fase di addestramento e di esercizio. In questa impresa ardua entrano in campo due linee d’azione strettamente legate, il diritto e l’etica. Il primo discende da decisioni prese dai governi e ha un valore prescrittivo. In questa direzione va l’AI Act approvato a luglio dall’UE. Ma le decisioni dei governi non sono arbitrarie, nascono da considerazioni etiche. Nel caso dell’AI Act, queste sono state enunciate nel 2019 nelle “Linee guida etiche per un’intelligenza artificiale affidabile”. Un anno prima padre Paolo Benanti aveva parlato di algoretica (parola che unisce algoritmo ed etica) proponendo di codificare principi e norme etiche in un linguaggio comprensibile e utilizzabile dalle macchine. Non si trattò di una coincidenza o dell’intuizione di un singolo, ma dell’esplicitazione sintetica di contenuti e riflessioni che, in quegli anni, iniziavano a collegare strettamente tecnologia (l’intelligenza artificiale) e filosofia (l’etica). Papa Francesco ha poi usato spesso questo termine, per sollecitare atti politici come il “Rome Call for AI Ethics”, un manifesto presentato nel 2020 e sottoscritto da numerose aziende, università, istituzioni religiose.
Monsignor Vincenzo Paglia riprende ampiamente le parole di papa Francesco sull’algoretica nel suo ultimo saggio L’algoritmo della vita. Un’ultima considerazione. Spesso si parla di intelligenza artificiale come di uno strumento che può sostenere gli esseri umani nello svolgimento delle loro attività lavorative.
Tutto ciò, però, richiede una radicale trasformazione sia del modo in cui tali attività sono effettuate che della stessa natura umana.
Altrettanto spesso si parla del pericolo di una sostituzione degli esseri umani da parte dell’intelligenza artificiale. Ci troviamo così di fronte a un inedito dilemma etico: farsi sostituire dall’intelligenza artificiale o usarla facendosi trasformare. Saremo capaci di sciogliere questo nodo, aiutati dalla filosofia?