L’intelligenza artificiale sta trasformando radicalmente la nostra società e le nostre economie e nei prossimi anni si prevedono ulteriori evoluzioni. Il mercato dell’IA è in continua crescita, insieme all’utilizzo delle tecnologie di IA all’interno di applicazioni industriali e commerciali.
Tuttavia, diversi sondaggi mostrano che molti utilizzatori sono preoccupati dai rischi che possono essere generati dagli strumenti di IA. Inoltre, solo una piccola parte degli intervistati ritiene di poter distinguere tra contenuti scritti da un essere umano e quelli generati da chatbot automatizzati.
In questo contesto, i policy-maker hanno l’esigenza di ridurre al minimo il rischio che l’IA comporta attraverso una regolamentazione smart, preservando i numerosi vantaggi che l’IA introduce. Il Parlamento Europeo ha compiuto un enorme passo avanti verso la regolamentazione dell’IA votando formalmente l’EU AI Act, il primo e più completo framework giuridico sull’IA al mondo. L’ampio consenso dimostrato dal Parlamento Europeo sottolinea l’importanza e la necessità di tale regolamentazione per un’IA responsabile, come BIP xTech promuove attivamente da molto tempo.
Lo scopo principale della regolamentazione è quello di garantire un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei Diritti Fondamentali dell’Unione Europea, che prevede la tutela della democrazia, dello stato di diritto e dell’ambiente. Sulla base di tali principi, l’EU AI Act cerca di stabilire regole armonizzate per lo sviluppo, la commercializzazione e l’uso dei sistemi di IA nell’Unione Europea, con un approccio proporzionato basato sul rischio.
Infatti, la normativa classifica i sistemi di intelligenza artificiale in base al rischio associato:
- Il rischio inaccettabile è vietato: i sistemi di IA vietati devono essere rimossi;
- I sistemi di IA ad alto rischio sono regolamentati: le aziende devono rispettare gli obblighi relativi alla supervisione umana, alla trasparenza, alla governance dei dati, alla gestione del rischio, alla documentazione tecnica, alla conservazione dei documenti, all’accuratezza e alla cybersecurity;
- I sistemi di IA a rischio limitato sono soggetti a obblighi di trasparenza;
- Il rischio minimo prevede accorgimenti minori (ad esempio, un codice di condotta su base volontaria).
La regolamentazione europea sull’IA introduce obblighi anche per i fornitori di sistemi “General Purpose AI” (GPAI), sia per l’uso diretto che per l’integrazione in altri sistemi di IA. Alcuni sistemi GPAI sono considerati in grado di causare rischi sistemici e sono quindi soggetti a obblighi più severi.
Gli obblighi ricadono sui fornitori e sugli operatori di sistemi di IA, che sono tenuti a conformarsi tempestivamente alla normativa: costruire un framework di governance dell’IA, catalogare e classificare tutti i sistemi di IA e definire controlli, metriche e piani di rimedio.
Un’azienda non conforme potrebbe essere soggetta a multe che possono arrivare fino al 7% del fatturato totale annuo mondiale dell’anno precedente, ovvero fino a 35 milioni di euro.
L’entrata in vigore del regolamento è attualmente prevista prima dell’inizio dell’estate. A partire da tale momento, gli obblighi imposti acquisiranno efficacia dopo:
- 6 mesi per i sistemi di IA vietati;
- 12 mesi per i sistemi GPAI;
- 24-36 mesi per i sistemi di IA ad alto rischio (a seconda dello scopo del sistema).
Per questo motivo, le aziende interessate dalla normativa devono agire il prima possibile per valutare l’impatto e le implicazioni sulla loro operatività.
BIP xTech, con la sua esperienza decennale nello sviluppo di sistemi di IA e nel renderli responsabili, affidabili, sicuri e conformi alle normative emergenti, può aiutare i Clienti a comprendere tutte le implicazioni dell’EU AI Act e guidarli rapidamente verso la conformità.
Vi state chiedendo se la vostra organizzazione è impattata dall’EU AI Act? Fate il rapido questionario (circa 5 minuti) disponibile al link sottostante e non esitate a contattarci per ulteriori informazioni.