LOADING

Type to search

Mondo 4.0 News pro Primo piano Tecnologia

AI Act approvato, ecco i punti chiave

Share

Legge sull’intelligenza artificiale: Consiglio e Parlamento raggiungono un accordo sulle prime regole per l’intelligenza artificiale nel mondo.

Dopo tre giorni di maratona di colloqui, la presidenza del Consiglio e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio sulla proposta di norme armonizzate sull’intelligenza artificiale (AI), le cosiddette atto sull’intelligenza artificiale. Il progetto di regolamento mira a garantire che i sistemi di IA immessi sul mercato europeo e utilizzati nell’UE siano sicuri e rispettosi diritti fondamentali e valori dell’UE. Questa proposta storica mira anche a stimolare gli investimenti e l’innovazione nel campo dell’intelligenza artificiale in Europa.

Carme Artigas, segretario di Stato spagnolo per la digitalizzazione e l’intelligenza artificiale

Questo è un risultato storico e un’enorme pietra miliare verso il futuro! L’accordo odierno affronta in modo efficace una sfida globale in un ambiente tecnologico in rapida evoluzione in un settore chiave per il futuro delle nostre società ed economie. E in questo sforzo siamo riusciti a mantenere un equilibrio estremamente delicato: promuovere l’innovazione e l’adozione dell’intelligenza artificiale in tutta Europa, nel pieno rispetto dei diritti fondamentali dei nostri cittadini.

Carme Artigas, segretario di Stato spagnolo per la digitalizzazione e l’intelligenza artificiale

La legge sull’intelligenza artificiale è un’iniziativa legislativa faro con il potenziale di promuovere lo sviluppo e l’adozione di un’IA sicura e affidabile nel mercato unico dell’UE da parte sia di attori privati ​​che pubblici. L’idea principale è quella di regolamentare l’IA in base alla capacità di quest’ultima di causare danni alla società seguendo un approccio ‘basato sul rischio’: maggiore è il rischio, più severe sono le regole. Essendo la prima proposta legislativa di questo tipo al mondo, può stabilire uno standard globale per la regolamentazione dell’IA in altre giurisdizioni, proprio come ha fatto il GDPR, promuovendo così l’approccio europeo alla regolamentazione tecnologica sulla scena mondiale.

Gli elementi principali dell’accordo provvisorio

Rispetto alla proposta iniziale della Commissione, i principali elementi di novità dell’accordo provvisorio possono essere così riassunti:

  • regole sui modelli di IA generici ad alto impatto che possono causare rischi sistemici in futuro, nonché sui Sistemi di intelligenza artificiale
  • un sistema rivisto di governance con alcuni poteri esecutivi a livello dell’UE
  • ampliamento dell’elenco dei divieti ma con la possibilità di utilizzare identificazione biometrica remotada parte delle forze dell’ordine in spazi pubblici, soggetti a garanzie
  • migliore protezione dei diritti attraverso l’obbligo per gli utilizzatori di sistemi di IA ad alto rischio di condurre una valutazione dell’impatto sui diritti fondamentali prima di installare un sistema di IA sistema in uso.

Più concretamente, l’accordo provvisorio riguarda i seguenti aspetti:

Definizioni e ambito

Per garantire che la definizione di un sistema di IA fornisca criteri sufficientemente chiari per distinguere l’IA dai sistemi software più semplici, l’accordo di compromesso allinea la definizione con l’approccio proposto dall’OCSE.

L’accordo provvisorio chiarisce inoltre che il regolamento non si applica ad ambiti esterni all’ambito di applicazione del diritto comunitario e non dovrebbe, in ogni caso, pregiudicare le competenze degli Stati membri in sicurezza nazionale < /span>difesao militari o qualsiasi entità incaricata di compiti in questo settore. Inoltre, la legge sull’IA non si applicherà ai sistemi utilizzati esclusivamente per scopi ricerca e innovazione, o a persone che utilizzano l’IA per scopi non motivi professionali.

Classificazione dei sistemi di IA come pratiche di IA ad alto rischio e vietate
L’accordo di compromesso prevede un livello di protezione orizzontale, compresa una classificazione ad alto rischio, per garantire che i sistemi di IA che non sono probabili causare gravi violazioni dei diritti fondamentali o altri rischi significativi non vengono rilevati. I sistemi di IA che presentano solo rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri , ad esempio rivelando che i contenuti sono stati generati dall’intelligenza artificiale in modo che gli utenti possano prendere decisioni informate sull’ulteriore utilizzo.

Un’ampia gamma di sistemi di IA ad alto rischio verrebbe autorizzata, ma soggetta a una serie di requisiti e obblighi per ottenere l’accesso al Mercato UE. Questi requisiti sono stati chiariti e adeguati dai colegislatori in modo tale da renderli più tecnicamente fattibili e meno onerosi da rispettare per le parti interessate, ad esempio per quanto riguarda la qualità dei dati, o in relazione alla documentazione tecnica che dovrebbe essere redatta dalle PMI per dimostrare che i loro sistemi di IA ad alto rischio sono conformi con i requisiti.

Poiché i sistemi di intelligenza artificiale sono sviluppati e distribuiti attraverso catene del valore complesse, l’accordo di compromesso include modifiche che chiariscono l’ripartizione delle responsabilità e ruoli dei vari attori in tali catene, in particolare fornitori e utenti di sistemi di intelligenza artificiale. Chiarisce inoltre il rapporto tra le responsabilità ai sensi della legge sull’AI e le responsabilità già esistenti ai sensi di altre normative, come la pertinente protezione dei dati dell’UE o la legislazione settoriale.

Per alcuni usi dell’intelligenza artificiale, il rischio è ritenuto inaccettabile e, pertanto, questi sistemi saranno banditi dall’UE. L’accordo provvisorio vieta, ad esempio, la manipolazione comportamentale cognitiva, la rottamazione di immagini facciali da Internet o filmati CCTV, riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, punteggio sociale< /span> per gli individui.polizia predittiva per dedurre dati sensibili, come l’orientamento sessuale o le credenze religiose, e alcuni casi di categorizzazione biometrica.

Eccezioni delle forze dell’ordine

Considerando le specificità delle autorità di contrasto e la necessità di preservare la loro capacità di utilizzare l’IA nel loro lavoro vitale, diverse modifiche alla Commissione sono state concordate proposte relative all’uso dei sistemi di IA a fini di contrasto. Fatte salve le adeguate tutele, questi cambiamenti intendono riflettere la necessità di rispettare la riservatezza dei dati operativi sensibili in relazione alle loro attività. Ad esempio, è stata introdotta una procedura di emergenza che consente alle forze dell’ordine di utilizzare uno strumento di intelligenza artificiale ad alto rischio che non ha superato la procedura di valutazione della conformità in caso di urgenza . Tuttavia, è stato introdotto anche un meccanismo specifico per garantire che i diritti fondamentali siano sufficientemente protetti da eventuali abusi dei sistemi di IA.

Inoltre, per quanto riguarda l’utilizzo di sistemi di identificazione biometrica remota in tempo reale negli spazi accessibili al pubblico, l’accordo provvisorio chiarisce gli obiettivi in ​​cui tali sistemi l’uso è strettamente necessario per scopi di contrasto e per i quali le autorità di contrasto dovrebbero pertanto essere eccezionalmente autorizzate a utilizzare tali sistemi. L’accordo di compromesso prevede garanzie aggiuntive e limita tali eccezioni ai casi di vittime di determinati reati, alla prevenzione di minacce reali, presenti o prevedibili, come l’attacco terroristico attacchi e ricerche di persone sospettate dei crimini più gravi.

Sistemi di intelligenza artificiale per scopi generali e modelli di base

Sono state aggiunte nuove disposizioni per tenere conto delle situazioni in cui i sistemi di IA possono essere utilizzati per molti scopi diversi (AI per scopi generali) e dove la tecnologia AI di uso generale viene successivamente integrata in un altro sistema ad alto rischio. L’accordo provvisorio affronta anche i casi specifici dei sistemi di IA per scopi generali (GPAI).

Sono state concordate regole specifiche anche per i modelli di base, sistemi di grandi dimensioni in grado di eseguire con competenza un’ampia gamma di compiti distintivi, come la generazione di video , testo, immagini, conversare in linguaggio laterale, elaborare o generare codice informatico. L’accordo provvisorio prevede che i modelli di fondazione debbano rispettare specifici obblighi di trasparenza prima di essere immessi sul mercato. È stato introdotto un regime più severo per i modelli di fondazione “ad alto impatto”. Si tratta di modelli di base addestrati con grandi quantità di dati e con complessità avanzata, capacità e prestazioni ben al di sopra della media, che possono diffondere rischi sistemici lungo la catena del valore

Una nuova architettura di governance

A seguito delle nuove norme sui modelli GPAI e dell’evidente necessità di una loro applicazione a livello dell’UE, è stato istituito un Ufficio AI all’interno della Commissione incaricato di supervisionare questi modelli di intelligenza artificiale più avanzati, contribuire a promuovere standard e pratiche di test e far rispettare le regole comuni in tutti gli Stati membri. Un panel scientifico di esperti indipendenti consiglierà l’Ufficio AI sui modelli GPAI, contribuendo allo sviluppo di metodologie per la valutazione delle capacità dei modelli di fondazione, fornendo consulenza su la designazione e l’emergere di modelli di fondazione ad alto impatto e il monitoraggio dei possibili rischi per la sicurezza materiale relativi ai modelli di fondazione.

Il AI Board, che comprenderebbe i rappresentanti degli Stati membri, resterà una piattaforma di coordinamento e un organo consultivo per la Commissione e attribuire un ruolo importante agli Stati membri nell’attuazione del regolamento, compresa la progettazione di codici di condotta per i modelli di fondazione.

Infine, sarà istituito un forum consultivo per le parti interessate, quali rappresentanti dell’industria, PMI, start-up, società civile e mondo accademico, per fornire informazioni tecniche competenza al Consiglio AI.

Sanzioni

Le multe per le violazioni della legge sull’AI sono state fissate come percentuale del fatturato annuo globale della società incriminata nell’anno finanziario precedente o come importo predeterminato, a seconda di quale sia il più alto. Questo ammonterebbe a 35 milioni di euro o il 7% per violazioni delle applicazioni IA vietate, 15 milioni di euro o il 3% per violazioni degli obblighi della legge sull’IA e 7,5 milioni di euro o 1,5% per la fornitura di informazioni errate.

Tuttavia, l’accordo provvisorio prevede limiti più proporzionati alle sanzioni amministrative per le PMI e le start-up in caso di violazione delle disposizioni della legge sull’AI.

L’accordo di compromesso chiarisce inoltre che una persona fisica o giuridica può presentare un reclamo all’autorità di vigilanza del mercato competente in merito al mancato rispetto delle norme della legge sull’AI e può aspettarsi che tale reclamo venga gestito in linea con le procedure dedicate di tale autorità.

Trasparenza e tutela dei diritti fondamentali

L’accordo provvisorio prevede una valutazione dell’impatto sui diritti fondamentali prima che un sistema di IA ad alto rischio venga immesso sul mercato dai suoi utilizzatori. L’accordo provvisorio prevede inoltre una maggiore trasparenza per quanto riguarda l’uso di sistemi di IA ad alto rischio.

In particolare, alcune disposizioni della proposta della Commissione sono state modificate per indicare che anche alcuni utenti di un sistema di IA ad alto rischio che sono enti pubblici saranno obbligati a registrarsi nella banca dati dell’UE per sistemi di intelligenza artificiale ad alto rischio.

Inoltre, le nuove disposizioni aggiunte pongono l’accento sull’obbligo per gli utenti di un sistema di riconoscimento delle emozioni di informare le persone fisiche quando sono esposte a tale sistema.

 

Misure a sostegno dell’innovazione

Al fine di creare un quadro giuridico più favorevole all’innovazione e di promuovere l’apprendimento normativo basato sull’evidenza, le disposizioni relative alle misure a sostegno dell’innovazione< a i=2> sono state sostanzialmente modificate rispetto alla proposta della Commissione.

In particolare, è stato chiarito che l’IA sandbox normativi, che dovrebbero stabilire un ambiente controllato per lo sviluppo, il test e la convalida di sistemi di IA innovativi, dovrebbero anche consentire di testare sistemi di IA innovativi in ​​condizioni reali. Inoltre, sono state aggiunte nuove disposizioni che consentono di testare i sistemi di intelligenza artificiale in condizioni del mondo reale, a specifiche condizioni e garanzie. Per alleviare gli oneri amministrativi per le imprese più piccole, l’accordo provvisorio comprende un elenco di azioni da intraprendere a sostegno di tali operatori e prevede alcune deroghe limitate e chiaramente specificate.

Entrata in vigore

L’accordo provvisorio prevede che la legge sull’AI si applichi due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.

Prossimi passi

A seguito dell’accordo provvisorio di oggi, nelle prossime settimane proseguiranno i lavori a livello tecnico per finalizzare i dettagli del nuovo regolamento. Il testo sarà sottoposto ai rappresentanti degli Stati membri (Coreper) per approvazione una volta conclusi i lavori.

L’intero testo dovrà essere confermato da entrambe le istituzioni e sottoposto a revisione giuridico-linguistica prima dell’adozione formale da parte dei colegislatori.

Tags:
Patrizia Scifo

Coordinatrice Editoriale | Consulente Marketing e Comunicazione

  • 1

You Might also Like