fbpx

Nazioni Unite: Vietare gli usi dell’intelligenza artificiale che limitano i diritti umani

Nazioni Unite: Vietare gli usi dell’intelligenza artificiale che limitano i diritti umani

K metro 0 – Ginevra – L’Alto Commissario per i Diritti Umani, Michelle Bachelet, ha proposto una moratoria sulle applicazioni dell’intelligenza artificiale (IA) che mettono a rischio i diritti umani, come ad esempio i sistemi di scansione del volto che tracciano le persone negli spazi pubblici. Si dovrebbero inoltre vietare espressamente i sistemi di “punteggio

K metro 0 – Ginevra – L’Alto Commissario per i Diritti Umani, Michelle Bachelet, ha proposto una moratoria sulle applicazioni dell’intelligenza artificiale (IA) che mettono a rischio i diritti umani, come ad esempio i sistemi di scansione del volto che tracciano le persone negli spazi pubblici.

Si dovrebbero inoltre vietare espressamente i sistemi di “punteggio sociale” che premiano o puniscono i cittadini a seconda del loro comportamento e altri strumenti che classificano le persone in gruppi basati sull’etnia o il genere.

L’intelligenza artificiale può essere una forza positiva, ma alcune sue applicazioni possono anche “avere effetti negativi, persino catastrofici, se utilizzate senza un’adeguata considerazione dei rischi di violazione dei diritti umani“, ha aggiunto Michelle Bachelet.

Le Nazioni Unite hanno presentato un nuovo rapporto che evidenzia come molti paesi e molte imprese abbiano applicato frettolosamente sistemi di IA senza introdurre garanzie per prevenire discriminazioni e altre violazioni di diritti umani.

L’intelligenza artificiale – osserva Peggy Hicks – direttrice del Thematic Engagement dell’Alto Commissariato per i Diritti Umani – fa già parte delle nostre vite. E non c’è tempo da perdere nella lotta per garantire che sia progettata e utilizzata in modo da rendere la nostra società migliore e più rispettosa dei diritti piuttosto che uno strumento che consente la discriminazione, invade la nostra privacy e mina i nostri diritti”.

Michelle Bachelet, non ha proposto un divieto assoluto della tecnologia di riconoscimento facciale, ma ha precisato che i governi dovrebbero interrompere il suo uso fino a quando non potranno dimostrare che è una tecnologia accurata, non discrimina e soddisfa determinati standard di privacy e protezione dei dati.

Nel rapporto dell’ONU i paesi “a rischio” non sono stati menzionati, ma di certo la Cina è stata tra i paesi che hanno utilizzato la tecnologia di riconoscimento facciale, in particolare per la sorveglianza nella regione occidentale del Xinjiang, dove vivono molti abitanti della minoranza Uighur (di lingua turca e religione islamica).

Gli autori del rapporto hanno dichiarato espressamente che nominare paesi specifici non era loro compito e farlo potrebbe essere persino controproducente, per il futuro.

Peggy Hicks ha citato diversi casi giudiziari negli Stati Uniti e in Australia in cui l’intelligenza artificiale era stata erroneamente applicata.

Il rapporto esprime anche diffidenza verso le applicazioni dell’IA che cercano di dedurre gli stati emotivi e mentali delle persone analizzando le loro espressioni facciali o i movimenti del corpo. E afferma che questa tecnologia è suscettibile di pregiudizi e interpretazioni errate e manca di basi scientifiche.

L’uso di sistemi di riconoscimento delle emozioni da parte delle autorità pubbliche, per identificare, ad esempio, individui da sottoporre ad arresti o fermi di polizia o per valutare la veridicità delle dichiarazioni durante gli interrogatori, rischia di ledere i diritti umani, come i diritti alla privacy, alla libertà e a un giusto processo“, si legge nel rapporto.

Le raccomandazioni del rapporto riecheggiano il pensiero di molti leader politici dei paesi democratici occidentali, che vogliono sfruttare il potenziale economico e sociale dell’IA, dando risposta al tempo stesso alle crescenti preoccupazioni sull’affidabilità degli strumenti per tracciare e profilare le persone e stabilire chi può aver accesso a posti di lavoro, prestiti e opportunità educative.

Le autorità di regolamentazione europee hanno già adottato misure per frenare le applicazioni più rischiose dell’IA. I regolamenti proposti dai funzionari dell’UE quest’anno vietano la scansione in tempo reale delle caratteristiche del viso e restringono fortemente l’uso di altre tecnologie che potrebbero minacciare la sicurezza o i diritti delle persone.

Negli Stati Uniti, l’amministrazione Biden ha espresso preoccupazioni analoghe, sebbene non abbia ancora definito un preciso orientamento al riguardo.

Un gruppo di recente formazione, denominato Trade and Technology Council, ha cercato di collaborare, sotto la direzione congiunta funzionari americani ed europei, all’elaborazione di regole condivise per le applicazioni dell’IA di altre politiche tecnologiche.

Sforzi per limitare gli usi più rischiosi dell’IA sono stati sostenuti da Microsoft e da altri giganti tecnologici statunitensi che sperano di guidare l’elaborazione delle regole per le applicazioni dell’IA.

I paesi occidentali sono stati in prima linea nell’esprimere preoccupazioni sull’uso discriminatorio dell’IA.

“Se si pensa ai modi in cui l’intelligenza artificiale potrebbe essere utilizzata a scopi discriminatori o per rafforzare ulteriormente le tendenze alla discriminazione, c’è da aver paura”, ha affermato il segretario al commercio degli Stati Uniti Gina Raimondo durante una conferenza virtuale a giugno. “Dobbiamo evitare che questo accada”.

Stava parlando con Margrethe Vestager, vicepresidente esecutivo della Commissione europea per l’era digitale, che ha suggerito che alcuni usi dell’IA dovrebbero essere completamente vietati nelle “democrazie come la nostra”. E a citato il punteggio sociale, che può blindare i privilegi di alcuni, e “l’uso ampio e generalizzato dell’identificazione biometrica remota nello spazio pubblico”.

(AP)

Condividi su:

Posts Carousel

Latest Posts

Top Authors

Most Commented

Featured Videos

Che tempo fa



Condividi su: