Elon Musk e un migliaio di altre persone hanno firmato una lettera che chiede una moratoria di 6 mesi sugli sviluppi dell’intelligenza artificiale. Tra i firmatari pochi scienziati importanti (tra cui Yoshua Bengio, uno dei pionieri del deep learning), molti imprenditori (come i cofondatori di Spotify ed Apple) e alcuni studiosi. I promotori sono i membri del Future of Life Institute, un importante think tank che promuove il lungotermismo, una curiosa linea di pensiero che si preoccupa solo dei rischi dell’estinzione umana nel lungo periodo, tra cui l’IA, quindi non del clima o di malattie che oggi devastano i paesi meno sviluppati.
Nella lettera si legge “Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, renderci obsoleti e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà?”.
Per evitare queste ipotetiche sciagure per l’umanità i firmatari chiedono che tutti i laboratori di ricerca sospendano immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti di Gpt-4 al fine di implementare congiuntamente una serie di protocolli di sicurezza condivisi, per rendere i sistemi di IA “sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leali“. Contemporaneamente, si chiede un’azione governativa per regolamentare e controllare lo sviluppo dell’IA ed evitare “dirompenti sconvolgimenti economici e politici (soprattutto per la democrazia) che saranno causati dalle IA”.
A me pare che la lettera abbia il merito di accendere il dibattito sulle conseguenze di questa accelerazione tecnologica, ma sia esagerata nei toni e proponga anche soluzioni irrealizzabili.
I toni apocalittici sono quelli che paventano lo sviluppo di un’Intelligenza Artificiale Generale in grado di prendere coscienza di sé e di soppiantare gli umani. Fantascienza. Più concreti i rischi, solo accennati, legati all’utilizzo per scopi di disinformazione (si veda la foto del Papa col piumino) o di sorveglianza.
La soluzione della moratoria è ovviamente irrealizzabile (chi controlla?), ma anche poco credibile dato che proviene da persone che stanno soffrendo per i successi di OpenAI. Tra questi Musk che, dopo essere stato tra i fondatori ha lasciato l’azienda perché non è riuscito ad ottenerne il pieno controllo, e Emad Mostaque, CEO di Stability AI, competitor di OpenAI.
Comunque il dibattito fa sempre bene purché indirizzato ad obiettivi concreti. In questo senso, c’è attesa per l’approvazione del regolamento europeo sull’intelligenza artificiale, IA Act, che punta a classificare i sistemi di intelligenza artificiale in base al rischio e vietare i più pericolosi.
L’altro giorno sono stato chiamato a commentare a caldo la lettera a RaiNews. Buona visione.
Condivido pienamente la lettura che ne hai dato, è proprio poco credibile. Quella lettera è interessante per almeno due motivi. Il primo è come considera la più larga parte dei destinatari che ricevono il messaggio, a dire poco sprovvisti. Il secondo è quello di posizionarsi dalla parte di chi estremizza i rischi per non essere sorpassati da chi li cavalca. E conquistarsi la legittimazione di consegnare il proprio position paper nel momento decisivo, quando il processo decisionale è avanzato e il regolatore deve scrivere le cose più importanti.