L’uso dell’intelligenza artificiale nell’UE sarà regolamentato dalla legge sull’intelligenza artificiale, la prima legge globale sull’IA al mondo. Scopriamo come ci proteggerà.

Nell’ambito della sua strategia digitale , l’UE vuole regolamentare l’intelligenza artificiale (AI) per garantire condizioni migliori per lo sviluppo e l’utilizzo di questa tecnologia innovativa. L’intelligenza artificiale può creare molti vantaggi , come una migliore assistenza sanitaria; trasporti più sicuri e puliti; produzione più efficiente; ed energia più economica e più sostenibile.

Nell’aprile 2021, la Commissione europea ha proposto il primo quadro normativo dell’UE per l’IA. La CE afferma che i sistemi di intelligenza artificiale che possono essere utilizzati in diverse applicazioni debbono essere analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio rappresenteranno più o meno la regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull’IA.

Cosa vuole ottenere il Parlamento nella legislazione sull’IA

La priorità del Parlamento è garantire che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di intelligenza artificiale dovranno essere supervisionati dalle persone, piuttosto che dall’automazione, per prevenire esiti dannosi.

Il Parlamento vuole anche stabilire una definizione uniforme e neutrale dal punto di vista tecnologico per l’IA che potrebbe essere applicata ai futuri sistemi di IA.

AI Act: approccio Risk Based – regole diverse per diversi livelli di rischio

Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio derivante dall’intelligenza artificiale. Sebbene molti sistemi di intelligenza artificiale comportino un rischio minimo, essi necessitano di essere valutati.

Rischio considerato Inaccettabile

Nel caso di rischio considerato inaccettabile I sistemi di intelligenza artificiale sono sistemi considerati una minaccia per le persone e saranno vietati. Essi includono i processi di:

  • Manipolazione cognitivo-comportamentale di persone o specifici gruppi considerati vulnerabili: a esempio giocattoli ad attivazione vocale che incoraggiano comportamenti pericolosi nei bambini;
  • Graduatoria sociale: classificare le persone in base al comportamento, allo stato socio-economico o alle caratteristiche personali
  • Sistemi di identificazione biometrica remota e in tempo reale, come il riconoscimento facciale.

Possono essere consentite alcune eccezioni: ad esempio, i sistemi di identificazione biometrica remota “ex post” in cui l’identificazione avviene dopo un ritardo significativo potranno essere autorizzati allo scopo di perseguire reati gravi, ma solo dopo l’approvazione del tribunale.

Rischio considerato Elevato

I sistemi di IA che incidono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

  • Sistemi di intelligenza artificiale utilizzati nei prodotti soggetti alla legislazione dell’UE sulla sicurezza dei prodotti. Ciò include giocattoli, aviazione, automobili, dispositivi medici e ascensori.
  • Sistemi di IA che rientrano in otto aree specifiche che dovranno essere registrate in una banca dati dell’UE:
    • Identificazione biometrica e categorizzazione delle persone fisiche
    • Gestione e funzionamento delle infrastrutture critiche
    • Istruzione e formazione professionale
    • Occupazione, gestione dei lavoratori e accesso al lavoro autonomo
    • Accesso e fruizione dei servizi privati ​​essenziali e dei servizi e benefici pubblici
    • Applicazione della legge
    • Migrazione, asilo e gestione dei controlli alle frontiere
    • Assistenza nell’interpretazione giuridica e nell’applicazione della legge

Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita.

 IA Generativa

L’IA di tipologia generativa, come ChatGPT, deve rispettare i requisiti di trasparenza, in particolare:

  • Rivelare che il contenuto è stato generato dall’intelligenza artificiale;
  • Progettare il modello per evitare che generi contenuti illegali;
  • Pubblicazione di riepiloghi di dati protetti da copyright utilizzati per la formazione:

 Rischio considerato Limitato

I sistemi di IA a rischio limitato devono rispettare requisiti minimi di trasparenza che consentirebbero agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può quindi decidere se desidera continuare a utilizzarle. Gli utenti debbono essere informati quando interagiscono con l’IA. Ciò include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video, ad esempio i deepfake.

Prossimi passi

Il 14 giugno 2023, i deputati hanno adottato la posizione negoziale del Parlamento sulla legge sull’IA . Ora inizieranno i colloqui con i paesi dell’UE in sede di Consiglio sulla forma finale della legge. L’obiettivo è raggiungere un accordo entro la fine di quest’anno.

Per consultare il testo in discussione Artificial intelligence act (europa.eu)

Fonte: Parlamento Europeo