L’intelligenza artificiale generativa è, ormai, parte della vita di milioni di persone, eppure, spesso ne valutiamo solo gli aspetti più visibili, strumentali. Ne ho parlato con Stefano Moriggi, storico e filosofo della scienza, coautore del libro “L’intelligenza artificiale e i suoi fantasmi”, che ha sottolineato come sia cruciale distinguere questo livello da una “riflessione culturale sulle tecnologie”, fondamentale per “integrare queste macchine in un paesaggio futuro dove si possa progettare insieme un ecosistema sostenibile”.
Moriggi ci invita a considerare i “fantasmi” che aleggiano attorno alle tecnologie, non come entità spiritiche, ma come idee e narrative che influenzano profondamente il nostro rapporto con esse. Esistono due categorie principali di questi fantasmi:
- i fantasmi insidiosi e seduttivi sono quelli che ci parlano del timore che le macchine possano “rubarci il mestiere o addirittura minacciare quello che noi intendiamo per umanità o per essere umano”. Questi fantasmi sono interessanti non perché offrano storie attendibili, ma perché “raccontano molto di noi, raccontano molto delle nostre resistenze dei giudizi che abbiamo”
- i fantasmi che sono d’aiuto sono quelli che ci aiutano a “ragionare in maniera costruttiva con le tecnologie”. Per cercarli, servono metodologie come l’archeologia dei media, che permette di rintracciare le “matrici culturali”, sociali ed economiche da cui le tecnologie hanno preso forma.
Una delle illusioni più persistenti che l’IA generativa mette in crisi è l’idea di “essere al centro”. Moriggi, riprendendo Freud, la definisce un “rifugio spettrale dentro cui proviamo a tutelare una qualche umanità”. Tuttavia, “non siamo al centro di nulla non lo siamo mai stati”, e “tutte le volte che ci siamo messi al centro abbiamo prodotto disastri”. Al contrario, “tutte le volte che ci siamo… allontanati dal centro… Abbiamo capito qualcosa di più di noi e del contesto”. Continuare a immaginare di “mettere l’uomo al centro, senza capire bene al centro di che cosa, ci costruiamo una illusione prospettica che ci espone a dei rischi che neanche vediamo”.
Applicando queste riflessioni a contesti professionali o educativi, Moriggi mette in guardia contro la tendenza a considerare le IA come “degli oracoli” o come semplici libri a cui chiedere la verità. Questo porta a un utilizzo superficiale e a lamentele quando le risposte non sono soddisfacenti o contengono “allucinazioni”.
Le macchine IA sono invece “macchine fondamentalmente dialogiche”. Per interagire in modo maturo e produttivo dobbiamo “appropriarci di una ragione dialogica in grado di valorizzare il dialogo stesso”, che non è una semplice chiacchiera.
Questo approccio dialogico permette di “sviluppare una diversa cultura dell’errore”. Nella ricerca, “l’errore è un’informazione non è un fallimento”. È “un’informazione preziosa che devo imparare a gestire per capire che cosa nel mio sistema di credenze devo cambiare, cosa devo confermare. È così che cresce la conoscenza”.
In conclusione, per seri professionisti, l’interazione con l’IA non può limitarsi all’acquisizione di competenze meramente strumentali. È necessario un impegno profondo, culturale e filosofico, per comprendere i fantasmi che ci riguardano e quelli che ci aiutano a tracciare la storia e le potenzialità di queste macchine.