fbpx

L’Unione Europea vuole controllare gli usi dell’intelligenza artificiale

L’Unione Europea vuole controllare gli usi dell’intelligenza artificiale

K metro 0 – Bruxelles – L’Unione Europea si propone di sottrarre i suoi cittadini all’occhio indiscreto del Grande Fratello e si avvia a limitare l’uso del riconoscimento facciale e le applicazioni invasive dell’intelligenza artificiale. Il nuovo piano per contrastare le tendenze verso la sorveglianza di massa è stato presentato mercoledì dalla commissaria al Digitale,

K metro 0 – Bruxelles – L’Unione Europea si propone di sottrarre i suoi cittadini all’occhio indiscreto del Grande Fratello e si avvia a limitare l’uso del riconoscimento facciale e le applicazioni invasive dell’intelligenza artificiale.

Il nuovo piano per contrastare le tendenze verso la sorveglianza di massa è stato presentato mercoledì dalla commissaria al Digitale, Margrethe Vestager e dal commissario all’industria, Thierry Breton.

“Il regolamento che proponiamo affronta i rischi umani e sociali connessi a usi specifici dell’intelligenza artificiale”, ha spiegato la Vestager. “Pensiamo che questo sia urgente. Siamo i primi al mondo a suggerire questo quadro normativo“.

Il disegno di legge della commissione europea contiene anche un elenco dei cosiddetti usi ad alto rischio dell’Intelligenza artificiale (IA) che sarebbero soggetti a nuova supervisione e a una regolamentazione del loro sviluppo, come i sistemi applicati in infrastrutture critiche (per es. i trasporti), le ammissioni all’università e le richieste di prestito. Le autorità di regolamentazione potrebbero multare un’azienda fino al 6% delle sue entrate annuali mondiali per le violazioni più gravi, anche se in pratica i funzionari dell’UE raramente, se non mai, infliggono sanzioni massime.

L’UE espande così il suo ruolo di garante globale nell’applicazione di nuove normative per il controllo dei presunti eccessi delle grandi aziende tecnologiche e per frenare i potenziali pericoli delle nuove tecnologie in settori che vanno dalla concorrenza digitale alla moderazione dei contenuti online. La nuova legge sul trattamento dei dati personali, il cosiddetto il Regolamento generale sulla protezione dei dati (RGPD), ha contribuito a definire un modello di regole ampiamente applicate, sostenute da multe salate, adottate in seguito da altri paesi e da alcuni stati degli Stati Uniti.

La proposta dell’UE deve fare ancora molta strada e affrontare potenziali cambiamenti. Prima di diventare legge dev’essere infatti approvata sia dal Consiglio europeo, che rappresenta i 27 governi dei paesi membri, sia dal Parlamento europeo eletto direttamente, il che può richiedere anni.

Alcuni paladini dei diritti digitali, pur apprezzando parti della legislazione proposta, la ritengono per altri aspetti troppo vaga e pensano che offra troppe scappatoie. Altri, invece, in linea con l’industria del settore, temono che le norme proposte darebbero un vantaggio alle aziende Cinesi, che non hanno questi vincoli.

“Gli Stati Uniti e la Cina si divertiranno nel vedere l’Europa che taglia le gambe alle proprie startup”, ha detto Benjamin Mueller, senior policy analyst presso il Center for Data Innovation.

Alcuni lobbisti del settore, tuttavia, si sono sentiti sollevati dal fatto che la regolamentazione proposta non fosse più draconiana e hanno apprezzato l’imposizione di un controllo rigoroso solo su alcuni tipi di usi ad alto rischio dell’IA.

Nel disegno di legge dell’UE vengono bandite alcune applicazioni specifiche. Oltre ai sistemi di credito sociale, come quelli utilizzati dal governo cinese per classificare la reputazione dei propri cittadini, sono vietati anche i sistemi di intelligenza artificiale che utilizzano “tecniche subliminali” o si avvantaggiano delle persone con disabilità per “distorcere materialmente il comportamento di una persona” in modi che potrebbero causare un danno fisico o psicologico.

Alla polizia non dovrebbe essere permessa l’utilizzazione di “sistemi di identificazione biometrica a distanza”, come il riconoscimento facciale in luoghi pubblici in tempo reale, con l’eccezione della ricerca di bambini rapiti e di criminali sospetti di frodi o di omicidi, o di operazioni volte a sventare minacce terroriste.

L’elenco delle eccezioni è incredibilmente ampio“, ha affermato Sarah Chander, senior policy advisor dell’European Digital Rights, una rete di organizzazioni non governative. E questo rende poi difficile stabilire con certezza cosa è permesso e cosa invece è vietato.

Le grandi banche sono state le prime a svelare i loro algoritmi di intelligenza artificiale alle autorità di regolamentazione, per aiutare i governi a prevenire un’altra crisi del credito globale. Questo può servire da modello di riferimento per molte altre aziende che alla fine dovranno fare la stessa cosa,IA secondo Andre Franca, ex direttore della divisione gestione dei rischi di Goldman Sachs.

Nell’ultimo decennio, ad esempio, le banche hanno dovuto assumere gruppi di esperti per aiutarle a presentare alle autorità di regolamentazione il “codice matematico” alla base dei loro modelli di intelligenza artificiale.

I fornitori di sistemi di intelligenza artificiale utilizzati per scopi ritenuti ad alto rischio dovranno produrre una documentazione dettagliata sul funzionamento del loro sistema, per garantire che sia conforme alle regole.

L’UE potrebbe anche inviare dei controllori per esaminare se gli algoritmi rientrano nelle categorie ad alto rischio previste dai regolamenti. Queste comprendono sistemi che identificano le informazioni biometriche delle persone (il volto o le impronte digitali) e algoritmi che potrebbero incidere sulla sicurezza dei cittadini. I regolatori della BCE spesso esaminano personalmente i codici informatici delle banche nel corso di riunioni che si protraggono per diversi giorni.

La maggior parte delle applicazioni di intelligenza artificiale, inclusi i videogiochi o i filtri antispam, non dovrebbero essere soggette a nuove regolamentazioni. Ma alcuni sistemi di IA a basso rischio, come i chatbot (programmi capaci di simulare una conversazione fra un robot e un essere umano) dovrebbero rendere più chiaro che come utenti stiamo interagendo con una macchina.

I Deepfakes, software usati per mettere il viso di una persona sopra il corpo di un altra in un video, dovrebbero contenere anch’essi avvertenze simili.

La start up ucraina NeoCortext Inc., che produce un’app popolare per lo scambio di volti chiamata Reface, ha fatto sapere che stava già lavorando sull’etichettatura, ma avrebbe cercato di seguire le linee guida dell’UE. “Le startup oggi in rapida crescita stanno cercando di sviluppare le migliori pratiche e di formalizzare codici di comportamento standard”, ha detto l’amministratore delegato di Neocortext, Dima Shvets.

Secondo Julien Cornebise, professore associato onorario di informatica all’University College di Londra ed ex ricercatore di Google, le nuove normative potrebbero non avere necessariamente lo stesso impatto del Regolamento generale sulla protezione dei dati, semplicemente perché l’intelligenza artificiale è definita in modo troppo ampio.

L’intelligenza artificiale, ha osservato, è in continua evoluzione. “I nostri telefoni fanno ogni giorno cose che 20 anni fa sarebbero state considerate ‘IA’. C’è insomma il rischio che le nuove regole si perdano nella loro definizione o diventino rapidamente obsolete”.

Condividi su:

Posts Carousel

Latest Posts

Top Authors

Most Commented

Featured Videos

Che tempo fa



Condividi su: