(Adnkronos) – Il Parlamento Europeo ha approvato a Strasburgo all’AiAct, il nuovo regolamento sulla Intelligenza Artificiale che includono, tra le altre cose, norme chiare contro il riconoscimento facciale nei luoghi pubblici e la polizia predittiva. I sì sono stati 499, 28 i no e 93 gli astenuti. Oggi stesso partiranno i negoziati con il Consiglio e i colloqui con i singoli governi dell’Unione Europea per la stesura del testo definitivo.
Le regole, spiega il Parlamento Europeo, seguono un approccio basato sul rischio e stabiliscono obblighi per i fornitori e coloro che implementano sistemi di Ia, graduati a seconda del livello di rischio che l’Ia può generare. I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone verrebbero quindi vietati, come quelli utilizzati per il punteggio sociale (classificazione delle persone in base al loro comportamento sociale o alle caratteristiche personali). I deputati hanno ampliato l’elenco per includere divieti sugli usi intrusivi e discriminatori dell’intelligenza artificiale, come i sistemi di identificazione biometrica remota ‘in tempo reale’ e ‘post’ in spazi pubblicamente accessibili; sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio genere, razza, etnia, stato di cittadinanza, religione, orientamento politico).
Gli eurodeputati vogliono anche vietare i sistemi di polizia predittiva (basati su profilazione, posizione o comportamento criminale passato); i sistemi di riconoscimento delle emozioni nelle forze dell’ordine, nella gestione delle frontiere, sul posto di lavoro e nelle istituzioni educative; la raccolta non mirata di immagini facciali da Internet o filmati Cctv (a circuito chiuso) per creare database di riconoscimento facciale, violando i diritti umani e il diritto alla privacy).
La classificazione delle applicazioni ad alto rischio includerà ora i sistemi di intelligenza artificiale che arrecano “danni significativi” alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente delle persone. I sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l’esito delle elezioni e nei sistemi di raccomandazione utilizzati dalle piattaforme di social media (con oltre 45 milioni di utenti) sono stati aggiunti all’elenco ad alto rischio.
I fornitori di modelli di base (uno sviluppo nuovo e in rapida evoluzione nel campo dell’Ia) dovrebbero valutare e mitigare i possibili rischi (per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto) e registrare i propri modelli nella banca dati dell’Ue prima di immetterli sul mercato. I sistemi di intelligenza artificiale generativa basati su questi modelli, come ChatGpt, dovrebbero rispettare requisiti di trasparenza (devono rivelare che il contenuto è stato generato dall’intelligenza artificiale, aiutando anche a distinguere le cosiddette immagini deep-fake da quelle reali) e garantire salvaguardie contro la generazione di contenuti illegali.
Dovrebbero essere rese pubbliche anche sintesi dettagliate dei dati protetti da copyright che sono stati utilizzati. Per promuovere l’innovazione dell’Ia e sostenere le piccole e medie imprese, i deputati hanno aggiunto esenzioni per le attività di ricerca e i componenti dell’Ia forniti con licenze open source, a codice sorgente aperto. La nuova legge promuove i cosiddetti sandbox normativi, o ambienti di vita reale, istituiti dalle autorità pubbliche per testare l’intelligenza artificiale prima che venga implementata.
Infine, i deputati vogliono rafforzare il diritto dei cittadini di presentare reclami sui sistemi di Ia e ricevere spiegazioni delle decisioni basate su sistemi di Ia ad alto rischio che incidono in modo significativo sui loro diritti fondamentali. I deputati hanno anche riformato il ruolo dell’Ufficio Ia dell’Ue, che avrebbe il compito di monitorare l’attuazione del regolamento sull’Intelligenza Artificiale. Ora inizieranno i negoziati interistituzionali con il Consiglio per dare forma definitiva alla legge.