L’AI Act emanato nel 2024 sta iniziando ad entrare in vigore.
Riassumiamo le tappe per giungere alla sua completa efficacia:
2 febbraio 2025
Divieti:
applicazioni delle disposizioni generali e di quelle sulle pratiche vietate come ad esempio le tecniche subliminali di orientamento o il credit scoring (Capi I e II – articolo 113, lettera a).
Formazione:
obbligo per chi produce e utilizza l’IA di garantire la formazione del personale e di chiunque si occupi del suo funzionamento (Articolo 4).
2 maggio 2025
Buone pratiche:
termine entro cui l’AI Office UE deve mettere a punto e facilitare l’adozione di codici di buone pratiche per implementare correttamente i modelli di IA a fini generali (Articolo 56 paragrafo 9).
2 agosto 2025
Governance:
termine entro cui gli Stati UE devono designare o istituire le Autorità Nazionali di Governance: sia quelle di vigilanza cui spetta sanzionare le violazioni sia le autorità di notifica che verificano la conformità dei processi di certificazione dei sistemi ad alto rischio (Capo III, Sezione 4).
Report di incidenti gravi:
termine entro cui la Commissione UE deve emanare le linee guida per la segnalazione di incidenti gravi (Articolo 73, paragrafo 7).
2 febbraio 2026
Piani di monitoraggio
Termine entro cui la Commissione UE deve emanare gli atti di esecuzione al fine della creazione di un modello di riferimento per la messa a punto dei piani di monitoraggio post-commercializzazione da parte dei fornitori di IA ad alto rischio (Articolo 72).
Applicazione dell’alto rischio:
termine entro cui la Commissione UE, dopo aver consultato l’European Artificial Intelligence Board, deve fornire le linee guida che esemplificano i casi di utilizzo dei sistemi di alto rischio da parte degli operatori economici al fine di facilitare l’attuazione concreta del Regolamento (Articolo 6, paragrafo 5).
2 agosto 2026
Obblighi per l’alto rischio:
piena applicazione ai sistemi messi in uso dopo il 2 agosto 2026 delle disposizioni contenute nel Regolamento UE con i relativi obblighi e sanzioni, in base al livello di rischio. Per i sistemi già operativi, a meno che non vengano modificati, è previsto un regime differente (Articolo 11).
Attuazione degli Stati:
termine entro cui gli Stati devono aver definito i criteri di applicazione delle sanzioni e delle altre misure di esecuzione (Articoli 99 e 57, paragrafo 1).
Sandbox:
termine entro cui gli Stati devono avere istituito almeno uno spazio di sperimentazione dell’IA (sandbox) che consente lo sviluppo da parte degli operatori economici di sistemi ad alto rischio nel rispetto delle regole UE. L’obiettivo è favorire l’innovazione a livello nazionale (Articolo 57, paragrafo 1).
La nostra Società sta proponendo piani di Formazione su queste tematiche ed un check up per affiancare le imprese e gli Enti che devono adeguarsi alle prescrizioni dell’AI Act.
Per informazioni