L'AI Act mira a classificare i sistemi di intelligenza artificiale in base al rischio che rappresentano per la salute, la sicurezza e i diritti fondamentali delle persone. L'obiettivo è creare un ambiente in cui l'IA possa prosperare in modo responsabile, rafforzando al contempo la fiducia dei cittadini in queste nuove tecnologie.
Tuttavia, come molte normative che cercano di regolamentare tecnologie in rapida evoluzione, l'AI Act presenta "alcune incertezze" che richiedono un'attenta analisi. Analogamente al Digital Services Act (DSA) e al Digital Markets Act (DMA), il regolamento utilizza termini che necessitano di "interpretazione" e non fornisce sempre parametri precisi per la valutazione del rischio.
Ad esempio, il regolamento parla di "impatti negativi sulla salute, la sicurezza e i diritti fondamentali", senza però offrire definizioni quantitative chiare di cosa costituisca effettivamente tali impatti. Questa mancanza di parametri specifici potrebbe creare incertezze per gli sviluppatori e i fornitori di sistemi di IA, che potrebbero avere difficoltà a determinare se i loro prodotti rientrano nella categoria "ad alto rischio".
Inoltre, il processo di valutazione del rischio, elemento chiave del regolamento, si basa in gran parte su valutazioni qualitative. Questo approccio, pur offrendo flessibilità in un settore in rapida evoluzione, può portare a interpretazioni divergenti tra gli Stati membri dell'UE.
Questi aspetti del regolamento meritano un'analisi approfondita da parte di tutte le parti coinvolte: sviluppatori, aziende, decisori politici e cittadini. È fondamentale trovare un equilibrio tra la necessità di proteggere i diritti dei cittadini e quella di promuovere l'innovazione in un settore cruciale per il futuro economico e tecnologico dell'Europa.