Il Codice di condotta per l'intelligenza artificiale a scopo generale (GPAI CoP) aveva lo scopo di garantire che venisse sviluppata un'intelligenza artificiale affidabile. Ma sempre più gruppi ed esperti sostengono che potrebbe finire per aiutare le grandi aziende a ottenere ciò che vogliono, invece di proteggere il pubblico dai rischi dell'intelligenza artificiale. La rabbia della gente comune avrà davvero importanza?
Il codice sta diventando bollente
A quel convegno sull'intelligenza artificiale in Francia, si parlava solo di soldi, non di sicurezza dell'intelligenza artificiale o di tutela dei diritti delle persone. E secondo molte persone della società civile, la stessa cosa sta succedendo con questo Codice dell'intelligenza artificiale per cose come ChatGPT.
Questo Codice è stato redatto da tredici brillanti personalità universitarie, con il supporto di un'infinità di esperti, enti di beneficenza, scienziati e aziende – quasi un migliaio in totale. Dovrebbe indicare alle aziende che realizzano software simili a ChatGPT come conformarsi alle normative UE sull'intelligenza artificiale. Ma alcuni gruppi stanno già pensando di abbandonarlo completamente.
"Se si tratta solo di uno spettacolo per far sembrare che le decisioni vengano prese equamente, allora è inutile", ha affermato Karine Caunes, che dirige Digihumanism e cura la rivista European Law Journal.
Altri gruppi per i diritti umani che lavorano alla CoP del GPAI la pensano allo stesso modo. Alcuni accademici e membri di organizzazioni benefiche stanno persino pensando di scendere in piazza per protestare, perché credono che nessuno li stia davvero ascoltando.
La lista dei rischi: dove le cose si complicano
La parte più importante del Codice è l'elenco dei rischi legati all'intelligenza artificiale. Ma l'aspetto attuale non è quello che i gruppi per i diritti civili si aspettavano.
La prima norma della legge UE sull'intelligenza artificiale stabilisce che essa serve a proteggere i diritti fondamentali, ricorda Sarah Andrew del gruppo Avaaz.
Ma il Codice tratta i rischi per i diritti delle persone come semplici "cose extra a cui pensare", invece di inserirli tra i rischi principali. Inoltre, cose come "molte discriminazioni illegali" o "mettere a repentaglio le persone in modo dannoso" sono nell'elenco dei rischi, ma sono state aggiunte parole che le rendono meno importanti.
Se hanno già sbagliato il modo in cui elencano i rischi, allora l'intero sistema di gestione dell'intelligenza artificiale sarà difettoso, avverte Andrew.
Manca qualcosa: controllare le aziende e scoprire come viene addestrata l'intelligenza artificiale
I gruppi che si concentrano sulla sicurezza dell'intelligenza artificiale sottolineano un altro problema: non sono obbligati a effettuare controlli di sicurezza indipendenti e non devono essere chiari su come addestrano i loro modelli di intelligenza artificiale.
Gli esperti affermano che se le aziende potessero testare la propria IA senza che nessuno la veda, il sistema sarebbe facile da abusare. Un altro grosso problema del Codice è se debbano condividere le modalità di addestramento della propria IA. Le aziende tecnologiche non vogliono rivelare dettagli sulle informazioni che utilizzano per addestrare i propri sistemi perché temono il copyright e la riservatezza dei dati.
La Security Coalition, di cui fa parte un noto esperto di nome Stuart Russell, ha inviato una lettera ai responsabili del Codice in cui indica quattro punti principali che vorrebbero modificare:
- Rendere obbligatori i controlli indipendenti dei modelli di intelligenza artificiale.
- Prendetevi più tempo per analizzare i sistemi rischiosi prima di utilizzarli.
- Stabilire livelli di sicurezza chiari che, se superati, rendono il modello di intelligenza artificiale troppo pericoloso da utilizzare.
- Creare modi per affrontare nuovi rischi a cui non abbiamo ancora pensato.
"Se facessero davvero queste cose, i responsabili farebbero quello che dicono i migliori esperti su come individuare e gestire i rischi", sostiene uno dei firmatari della lettera.
Le grandi aziende tecnologiche non sono contente
Mentre i gruppi che aiutano le persone vogliono regole più severe, l'industria tecnologica la vede in modo molto diverso. Già prima dell'incontro sull'intelligenza artificiale, Meta e Google avevano dichiarato di non gradire il Codice così com'è.
Il principale lobbista di Meta, Joel Kaplan, l'ha definito "non pratico e inefficace", mentre Kent Walker di Google ha affermato che si tratta di "un passo nella direzione sbagliata". Le aziende sostengono che il Codice le obblighi a fare più di quanto preveda la legge UE sull'intelligenza artificiale.
"Non è vero", afferma Caunes. Il Codice non dovrebbe limitarsi a ripetere la legge, ma dovrebbe andare oltre, secondo lui.
Ma alcune di queste lamentele sembrano attirare l'attenzione di Bruxelles. La Commissione europea ha iniziato a parlare di "semplificare le regole" per favorire la crescita economica.
Un momento piuttosto significativo del meeting sull'intelligenza artificiale è stato il discorso di chiusura del CEO di Google, Sundar Pichai. Il fatto che un'azienda che si batteva per meno regole abbia ottenuto un posto così importante non è passato inosservato a nessuno.
Google sta silenziosamente facendo pressione sui responsabili del Codice affinché indeboliscano i riferimenti al diritto dell'UE, pur avendo l'ultima parola al vertice, ha commentato Andrew.
Cosa succederà adesso?
Il tira e molla su questo Codice dell'IA dimostra quanto gli interessi della gente comune e delle grandi aziende tecnologiche si stiano scontrando. Mentre i gruppi che rappresentano il pubblico si battono per valori come onestà, sicurezza e diritti umani, le grandi aziende premono per meno regole e più libertà di fare ciò che vogliono.
Finora, i gruppi pubblici non hanno ufficialmente smesso di lavorare sul Codice, ma si stanno stufando. Se nessuno li ascolta, potrebbero iniziare a fare cose che attirano più attenzione.
Scritto da
Dai forma alla conversazione
Hai qualcosa da aggiungere a questa storia? Hai qualche idea su interviste o angolazioni da esplorare? Facci sapere se vuoi scrivere un seguito, un contrappunto o condividere una storia simile.