Notizie Radiocor

Ai Act: da febbraio arrivano i primi divieti sul rischio 'inaccettabile'-FOCUS

Da individuare entro agosto l'Autorita' di controllo (Il Sole 24 Ore Radiocor) - Roma, 18 gen - Entrano in vigore le previsioni dell'Ai Act, il regolamento europeo sull'intelligenza artificiale, che vietano i sistemi di Ai con rischio inaccettabile. Tra qualche giorno, dal primo febbraio, sara' infatti applicata questa parte della normativa europea approvata a luglio 2024 (e in vigore da agosto). Le regole per i cosiddetti modelli di Ai a scopo generale si applicheranno, invece, dopo 12 mesi dall'entrata in vigore, cioe' ad agosto 2025.

Si considera rischio inaccettabile quel rischio che viola i valori europei. Quel rischio che e' in grado, spiega Andrea Lisi, esperto in diritto applicato all'informatica e protezione dei dati, direttore di una rivista di divulgazione scientifica e docente alla Pontificia Universita' Antonianum, 'di mettere a rischio la democrazia, dunque sistemi in grado di manipolare, di fare social scoring, in contrasto con l'ordinamento europeo. Sono casi che usano tecniche subliminali e sfruttano vulnerabilita', disabilita', minore eta', per confondere, far compiere scelte non volute'. Vi rientrano i casi di manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici: ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini; classificazione delle persone in base al comportamento, al livello socio-economico, alle caratteristiche personali; identificazione biometrica e categorizzazione delle persone; sistemi di identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.

Con l'entrata in vigore di questi divieti a febbraio, tuttavia, manca poi un importante tassello: ovvero l'investitura di un'Autorita' che controlli il loro rispetto.

Al momento in Italia non e' chiaro chi se ne occupera' e la scelta, come prevede l'Ai Act, va compiuta entro il 2 agosto 2025. 'In Italia - ricorda Lisi - il ddl portato all'attenzione dal governo italiano e' in fase di valutazione da parte del Parlamento, prevede una sorta di agenzia a due teste, composta da Agid e Acn. Poiche' sono due agenzie governative, di fatto sottoposte a controllo politico, c'e' gia' stata qualche critica. Bisognera' dunque vedere se il ddl, attualmente fermo al Senato, rimarra' cosi', si creera' un'authority ad hoc oppure, ad esempio, si investira' il Garante per la protezione dati personali che e' un'Autorita' indipendente e si e' detto gia' disponibile'.

Un'altra soluzione che proviene da un Paese decisamente indietro sulle tutele di tanti altri diritti, ma avanti nello sviluppo dell'Ai, e' quella saudita. 'L'Arabia Saudita - spiega Lisi - gia' nel luglio 2023 ha istituto un'Authority sulla protezione di dati e Ai. Avere un'unica autorita' che si occupi anche di qualita' di dati e' fondamentale perche' se i dati non vengono tutelati e preservati, gli output generati da quei dati avranno inevitabilmente dei bias. La scelta migliore potrebbe essere dunque passare per l'istituzione di un'autorita' ad hoc per i dati e il controllo sull'Ai oppure si potrebbe pensare un'Autorita' a tre teste, composta da Agid e Acn con il Garante'.

Sim

(RADIOCOR) 18-01-25 14:30:24 (0280) 3 NNNN

 


Borsa Italiana non ha responsabilità per il contenuto del sito a cui sta per accedere e non ha responsabilità per le informazioni contenute.

Accedendo a questo link, Borsa Italiana non intende sollecitare acquisti o offerte in alcun paese da parte di nessuno.


Sarai automaticamente diretto al link in cinque secondi.