K metro 0 – Bruxelles – Meta ha annunciato che non firmerà il nuovo Codice di condotta europeo per i modelli di intelligenza artificiale a uso generale (GPAI), prendendo così una posizione controcorrente rispetto ad altre grandi aziende del settore. La notizia è arrivata tramite un post pubblicato su LinkedIn da Joel Kaplan, vicepresidente per
K metro 0 – Bruxelles – Meta ha annunciato che non firmerà il nuovo Codice di condotta europeo per i modelli di intelligenza artificiale a uso generale (GPAI), prendendo così una posizione controcorrente rispetto ad altre grandi aziende del settore. La notizia è arrivata tramite un post pubblicato su LinkedIn da Joel Kaplan, vicepresidente per gli affari globali della società: “L’Europa sta prendendo una direzione sbagliata sull’IA”, ha scritto, spiegando che il Codice introdurrebbe troppa incertezza giuridica e restrizioni non previste dalla legge europea sull’intelligenza artificiale.
Il Codice, pubblicato il 10 luglio dalla Commissione europea, è uno strumento volontario pensato per aiutare le imprese a prepararsi all’entrata in vigore dell’AI Act, la normativa che regolerà l’uso dell’intelligenza artificiale nei Paesi dell’Unione a partire dal 2 agosto 2025. Tra i firmatari già confermati figurano OpenAI, creatrice di ChatGPT, e Mistral AI, giovane azienda francese in rapida ascesa nel settore.
Il rifiuto di Meta non è passato inosservato, anzi ha innescato una serie di reazioni tra i parlamentari europei. Sergey Lagodinsky, relatore per i Verdi al Parlamento europeo, ha respinto le critiche rivolte al Codice: “È stato redatto proprio ascoltando i fornitori di GPAI – ha dichiarato – e non credo che contenga misure più rigide della legge stessa”. Anche Axel Voss, eurodeputato tedesco del PPE, ha espresso delusione per la scelta dell’azienda americana, definendola “un pessimo segnale per la trasparenza e la responsabilità nel campo dell’intelligenza artificiale”.
Il Codice in questione, pur non essendo vincolante, rappresenta un tassello importante della strategia europea per la regolamentazione dell’IA. È il primo strumento ufficiale di soft law in questo ambito, frutto di un processo collaborativo coordinato dall’Ufficio europeo per l’intelligenza artificiale. Più di mille soggetti – tra esperti, aziende, istituzioni pubbliche, accademici e rappresentanti della società civile – hanno contribuito alla sua elaborazione.
L’obiettivo dichiarato della Commissione è duplice: da un lato guidare l’industria verso l’applicazione concreta dell’AI Act, dall’altro rafforzare la fiducia del pubblico e dei mercati nella sicurezza, nella trasparenza e nell’equità dei sistemi basati su IA generativa. I modelli GPAI, infatti, stanno diventando l’infrastruttura di base per moltissimi servizi digitali: dai chatbot all’analisi predittiva, dai motori di ricerca intelligenti alle applicazioni creative.
La normativa europea distingue tra modelli di uso generale “standard” e quelli considerati “a rischio sistemico”. Per questi ultimi – cioè i modelli addestrati con una potenza di calcolo superiore a 10^25 operazioni in virgola mobile (FLOP) – il livello di responsabilità richiesto è più elevato. Si tratta, in sostanza, dei modelli più avanzati e più diffusi, in grado di influenzare un’ampia gamma di settori e milioni di persone.
L’AI Act impone a tutti i fornitori di modelli GPAI obblighi chiari: rendere disponibili documentazioni tecniche aggiornate, rispettare le norme europee sul diritto d’autore, pubblicare una sintesi dei dati utilizzati per l’addestramento e garantire la sicurezza dei sistemi. Nel caso dei modelli a rischio sistemico, è richiesto anche un sistema di monitoraggio per la gestione degli incidenti gravi e misure specifiche di mitigazione dei rischi.
Per facilitare l’attuazione di queste regole, la Commissione ha pubblicato contestualmente al Codice anche una serie di linee guida esplicative. Questi documenti chiariscono a chi si applicano gli obblighi di legge, quali modelli ricadono nella categoria GPAI, quali esenzioni sono previste per i software open source e come verranno condotti i controlli, soprattutto nei primi mesi dopo l’entrata in vigore dell’AI Act.
Meta, pur essendo uno dei maggiori attori nel campo dell’intelligenza artificiale – grazie allo sviluppo di modelli come Llama – ha deciso di tenersi fuori dal percorso tracciato da Bruxelles. Secondo fonti vicine all’azienda, riportate da Politico, la decisione non implica automaticamente un rifiuto dell’AI Act, ma rappresenta piuttosto una presa di distanza da un approccio considerato troppo dirigista e potenzialmente dannoso per l’innovazione.
Non è la prima volta che Meta critica la linea europea sull’IA. Già in passato aveva espresso riserve su alcune parti dell’AI Act, temendo che la nuova normativa potesse rallentare la competitività delle aziende tecnologiche europee e limitare la possibilità di sperimentazione e sviluppo.
La Commissione, dal canto suo, ha ribadito che la firma del Codice è volontaria, ma ha anche lasciato intendere che chi sceglierà di non aderire potrebbe essere sottoposto a controlli più approfonditi per verificare il rispetto degli obblighi di legge. In particolare, sarà l’Ufficio per l’IA a monitorare l’attività dei fornitori e a intervenire in caso di irregolarità.
L’intera vicenda apre un interrogativo più ampio: l’Europa riuscirà davvero a farsi garante di una regolamentazione equilibrata dell’intelligenza artificiale, senza scoraggiare l’innovazione tecnologica? E le grandi piattaforme globali, come Meta, saranno disposte a seguire regole comuni o preferiranno continuare su strade autonome?
La risposta arriverà nei prossimi mesi, quando l’AI Act inizierà a produrre i suoi effetti. Intanto, il gesto di Meta segna un primo scossone in una partita che si annuncia lunga e complessa, in cui il rapporto tra potere tecnologico e sovranità normativa sarà sempre più centrale.