Site icon AssoPrivacy

EU AI Act: Primo Regolamento sull’Intelligenza Artificiale

Questa illustrazione dell'intelligenza artificiale è stata infatti generata dall'IA

L’uso dell’intelligenza artificiale nell’UE sarà regolamentato dalla legge sull’intelligenza artificiale, la prima legge globale sull’IA al mondo. Scopriamo come ci proteggerà.

Nell’ambito della sua strategia digitale , l’UE vuole regolamentare l’intelligenza artificiale (AI) per garantire condizioni migliori per lo sviluppo e l’utilizzo di questa tecnologia innovativa. L’intelligenza artificiale può creare molti vantaggi , come una migliore assistenza sanitaria; trasporti più sicuri e puliti; produzione più efficiente; ed energia più economica e più sostenibile.

Nell’aprile 2021, la Commissione europea ha proposto il primo quadro normativo dell’UE per l’IA. La CE afferma che i sistemi di intelligenza artificiale che possono essere utilizzati in diverse applicazioni debbono essere analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio rappresenteranno più o meno la regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull’IA.

Cosa vuole ottenere il Parlamento nella legislazione sull’IA

La priorità del Parlamento è garantire che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. I sistemi di intelligenza artificiale dovranno essere supervisionati dalle persone, piuttosto che dall’automazione, per prevenire esiti dannosi.

Il Parlamento vuole anche stabilire una definizione uniforme e neutrale dal punto di vista tecnologico per l’IA che potrebbe essere applicata ai futuri sistemi di IA.

AI Act: approccio Risk Based – regole diverse per diversi livelli di rischio

Le nuove regole stabiliscono obblighi per fornitori e utenti a seconda del livello di rischio derivante dall’intelligenza artificiale. Sebbene molti sistemi di intelligenza artificiale comportino un rischio minimo, essi necessitano di essere valutati.

Rischio considerato Inaccettabile

Nel caso di rischio considerato inaccettabile I sistemi di intelligenza artificiale sono sistemi considerati una minaccia per le persone e saranno vietati. Essi includono i processi di:

Possono essere consentite alcune eccezioni: ad esempio, i sistemi di identificazione biometrica remota “ex post” in cui l’identificazione avviene dopo un ritardo significativo potranno essere autorizzati allo scopo di perseguire reati gravi, ma solo dopo l’approvazione del tribunale.

Rischio considerato Elevato

I sistemi di IA che incidono negativamente sulla sicurezza o sui diritti fondamentali saranno considerati ad alto rischio e saranno suddivisi in due categorie:

Tutti i sistemi di IA ad alto rischio saranno valutati prima di essere immessi sul mercato e anche durante il loro ciclo di vita.

 IA Generativa

L’IA di tipologia generativa, come ChatGPT, deve rispettare i requisiti di trasparenza, in particolare:

 Rischio considerato Limitato

I sistemi di IA a rischio limitato devono rispettare requisiti minimi di trasparenza che consentirebbero agli utenti di prendere decisioni informate. Dopo aver interagito con le applicazioni, l’utente può quindi decidere se desidera continuare a utilizzarle. Gli utenti debbono essere informati quando interagiscono con l’IA. Ciò include i sistemi di intelligenza artificiale che generano o manipolano contenuti di immagini, audio o video, ad esempio i deepfake.

Prossimi passi

Il 14 giugno 2023, i deputati hanno adottato la posizione negoziale del Parlamento sulla legge sull’IA . Ora inizieranno i colloqui con i paesi dell’UE in sede di Consiglio sulla forma finale della legge. L’obiettivo è raggiungere un accordo entro la fine di quest’anno.

Per consultare il testo in discussione Artificial intelligence act (europa.eu)

Fonte: Parlamento Europeo

Exit mobile version