Una decisione di un giudice federale americano rischia di compromettere l’intero impianto normativo europeo sulla protezione dei dati personali. Secondo quanto emerso nei giorni scorsi da fonti giuridiche statunitensi, il giudice ha stabilito che OpenAI – la società che sviluppa ChatGpt – non può invocare il segreto commerciale per evitare di rivelare quali dati personali vengano utilizzati per addestrare i suoi modelli linguistici. Questo verdetto, se confermato in sede definitiva, apre uno scenario di fortissimo impatto, poiché indebolisce la barriera giuridica che separa le informazioni raccolte in Europa – e soggette al Gdpr – dall’ecosistema normativo statunitense, storicamente meno garantista.
Un giudice Usa apre una falla nella privacy europea: le ripercussioni su ChatGpt e AI
Il cuore del problema riguarda la formazione degli algoritmi su testi, immagini, suoni e contenuti in generale provenienti da ogni parte del mondo. Se alcuni di questi materiali includono dati personali, e se questi dati provengono da cittadini europei, l’uso da parte di aziende statunitensi potrebbe violare le norme europee sulla privacy. OpenAI ha sempre mantenuto riservata la natura dei dataset utilizzati per l’addestramento, sostenendo che rivelarli equivarrebbe a compromettere i propri segreti industriali. La decisione del giudice americano, invece, obbliga a dischiudere parte di questi processi in un contesto di causa civile, affermando che l’interesse pubblico alla trasparenza supera la protezione commerciale.
Le ricadute giuridiche in Europa e il ruolo del Garante
Il Garante per la protezione dei dati personali italiano – così come altri garanti europei – ha più volte ammonito le aziende tecnologiche statunitensi sull’uso indiscriminato dei dati europei. L’Italia fu tra i primi Paesi a sollevare la questione su ChatGpt, sospendendone temporaneamente l’accesso nel 2023. Ora, con questa sentenza, il timore è che una decisione giurisprudenziale americana possa di fatto rendere inefficace l’azione delle autorità europee. Il rischio non è solo teorico: se le informazioni degli utenti Ue possono essere trattate negli Stati Uniti senza garanzie equivalenti, si viola il principio di adeguatezza su cui si basa il flusso transatlantico dei dati. E questo potrebbe innescare una nuova stagione di blocchi, sanzioni e rinegoziazioni tra Bruxelles e Washington.
L’allarme delle associazioni digitali e il precedente Schrems
Associazioni per i diritti digitali e giuristi internazionali hanno colto immediatamente la portata della sentenza. Alcuni esperti hanno già paragonato il caso a quello che portò alla caduta del Privacy Shield, l’accordo bilaterale che consentiva il trasferimento di dati tra Europa e Stati Uniti, invalidato dalla Corte di giustizia Ue nel 2020 dopo il ricorso di Max Schrems. L’attivista austriaco, noto per le sue battaglie contro Facebook e le Big Tech, ha dichiarato che quanto sta accadendo oggi con ChatGpt potrebbe avere esiti ancora più dirompenti: non solo sul piano del trasferimento dei dati, ma sull’intera architettura giuridica che governa l’intelligenza artificiale.
OpenAI, Europa e la difficile convivenza normativa
La società guidata da Sam Altman si trova dunque in un crocevia delicatissimo. Da un lato deve dimostrare trasparenza e compliance, specie con l’entrata in vigore dell’Ai Act europeo; dall’altro, non può permettere che la propria tecnologia sia messa a rischio da una rivelazione eccessiva dei propri metodi. La sfida per OpenAI è dunque duplice: sul piano tecnico, costruire modelli più attenti alla privacy e al consenso; su quello giuridico, affrontare una battaglia legale su due continenti. E intanto, l’Europa osserva con crescente inquietudine, consapevole che una decisione presa oltre Atlantico può avere ricadute molto più profonde di quanto sembri.