Il 13 marzo è stato approvato l’Artificial Intelligence Act dal Parlamento Europeo. È il primo tentativo di normare una materia così dinamica e fluida. C’è chi lo applaude come un modo per arginare gli impatti nefasti che potrebbero avere sulle nostre vite e chi, al contrario, pensa sia un ostacolo alla creazione di una via europea all’intelligenza artificiale.
Le nuove regole stabiliscono obblighi per i fornitori e gli utenti in base al livello di rischio derivante dall’uso dell’intelligenza artificiale.
Rischio inaccettabile
I sistemi di IA a rischio inaccettabile sono sistemi considerati una minaccia per le persone e sono vietati:
- Manipolazione cognitiva comportamentale delle persone o di specifici gruppi vulnerabili: ad esempio, giocattoli attivati tramite la voce che incoraggino comportamenti pericolosi nei bambini
- Social scoring: classificazione delle persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali
- Identificazione e categorizzazione biometrica delle persone
- Sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale
Alcune eccezioni possono essere consentite per scopi di applicazione della legge. I sistemi di identificazione biometrica a distanza “in tempo reale” saranno consentiti in un numero limitato di casi gravi, mentre i sistemi di identificazione biometrica a distanza non in tempo reale (in cui l’identificazione avviene dopo un ritardo significativo) saranno consentiti per perseguire crimini gravi e solo dopo l’approvazione del tribunale.
Alto rischio
I sistemi di IA che influiscono negativamente sulla sicurezza o sui diritti fondamentali sono considerati ad alto rischio. Sono suddivisi in due categorie:
- Sistemi di IA utilizzati in prodotti che rientrano nella legislazione dell’UE sulla sicurezza dei prodotti. Ciò include giocattoli, aviazione, automobili, dispositivi medici e ascensori.
- Sistemi di IA che rientrano in aree specifiche e che dovranno essere registrati in un database dell’UE:
- Gestione e funzionamento di infrastrutture critiche
- Istruzione e formazione professionale
- Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
- Accesso e fruizione di servizi privati essenziali, servizi pubblici e benefici
- Applicazione della legge
- Gestione della migrazione, dell’asilo e del controllo delle frontiere
- Assistenza nell’interpretazione e applicazione della legge.
Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita. Le persone avranno il diritto di presentare reclami sui sistemi di IA alle autorità nazionali designate.
L’IA generativa e i requisiti di trasparenza
I software di intelligenza artificiale generativa, come ChatGPT, non sono classificati come ad alto rischio, ma devono rispettare alcuni requisiti di trasparenza e di rispetto del diritto d’autore dell’UE:
- gli output dovranno contenere una dicitura che espliciti la loro natura di contenuti generati dall’IA
- i modello sottostanti devono essere progettati in modo da impedire di generare contenuti illegali
- i produttori dovranno pubblicare una sintesi del dataset di addestramento per evidenziare eventuali fonti coperte da copyright
Le regole sono tante e per questo ho provato a capirne di più intervistando Vincenzo Tiani, partner della sede di Bruxelles dello studio legale Panetta (che tra i suoi clienti ha OpenAI). Buona visione!