Cosa prevede l’IA Act: conversazione con Vincenzo Tiani

Il 13 marzo è stato approvato l’Artificial Intelligence Act dal Parlamento Europeo. È il primo tentativo di normare una materia così dinamica e fluida. C’è chi lo applaude come un modo per arginare gli impatti nefasti che potrebbero avere sulle nostre vite e chi, al contrario, pensa sia un ostacolo alla creazione di una via europea all’intelligenza artificiale.

Le nuove regole stabiliscono obblighi per i fornitori e gli utenti in base al livello di rischio derivante dall’uso dell’intelligenza artificiale.

Rischio inaccettabile

I sistemi di IA a rischio inaccettabile sono sistemi considerati una minaccia per le persone e sono vietati:

  • Manipolazione cognitiva comportamentale delle persone o di specifici gruppi vulnerabili: ad esempio, giocattoli attivati tramite la voce che incoraggino comportamenti pericolosi nei bambini
  • Social scoring: classificazione delle persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali
  • Identificazione e categorizzazione biometrica delle persone
  • Sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale

Alcune eccezioni possono essere consentite per scopi di applicazione della legge. I sistemi di identificazione biometrica a distanza “in tempo reale” saranno consentiti in un numero limitato di casi gravi, mentre i sistemi di identificazione biometrica a distanza non in tempo reale (in cui l’identificazione avviene dopo un ritardo significativo) saranno consentiti per perseguire crimini gravi e solo dopo l’approvazione del tribunale.

Alto rischio

I sistemi di IA che influiscono negativamente sulla sicurezza o sui diritti fondamentali sono considerati ad alto rischio. Sono suddivisi in due categorie:

  1. Sistemi di IA utilizzati in prodotti che rientrano nella legislazione dell’UE sulla sicurezza dei prodotti. Ciò include giocattoli, aviazione, automobili, dispositivi medici e ascensori.
  2. Sistemi di IA che rientrano in aree specifiche e che dovranno essere registrati in un database dell’UE:
  • Gestione e funzionamento di infrastrutture critiche
  • Istruzione e formazione professionale
  • Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
  • Accesso e fruizione di servizi privati essenziali, servizi pubblici e benefici
  • Applicazione della legge
  • Gestione della migrazione, dell’asilo e del controllo delle frontiere
  • Assistenza nell’interpretazione e applicazione della legge.

Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita. Le persone avranno il diritto di presentare reclami sui sistemi di IA alle autorità nazionali designate.

L’IA generativa e i requisiti di trasparenza

I software di intelligenza artificiale generativa, come ChatGPT, non sono classificati come ad alto rischio, ma devono rispettare alcuni requisiti di trasparenza e di rispetto del diritto d’autore dell’UE:

  • gli output dovranno contenere una dicitura che espliciti la loro natura di contenuti generati dall’IA
  • i modello sottostanti devono essere progettati in modo da impedire di generare contenuti illegali
  • i produttori dovranno pubblicare una sintesi del dataset di addestramento per evidenziare eventuali fonti coperte da copyright

Le regole sono tante e per questo ho provato a capirne di più intervistando Vincenzo Tiani, partner della sede di Bruxelles dello studio legale Panetta (che tra i suoi clienti ha OpenAI). Buona visione!

✉️ Ti è piaciuto questo articolo? Iscriviti alla mia newsletter gratuita!
Tags from the story
,
Leave a comment

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *