Codul de practici pentru inteligența artificială cu scop general (GPAI CoP) a fost conceput pentru a asigura construirea unei inteligențe artificiale în care poți avea încredere. Însă tot mai multe grupuri și experți spun că acest lucru ar putea ajunge doar să ajute marile companii să obțină rezultate, în loc să protejeze publicul de riscurile legate de inteligența artificială. Vor conta măcar oamenii obișnuiți care se enervează din cauza asta?
Codul este pus sub presiune
La acea întâlnire pe tema inteligenței artificiale din Franța, tot ce s-a vorbit a fost despre bani, nu despre siguranța inteligenței artificiale sau despre protejarea drepturilor oamenilor. Și, potrivit multor oameni din societatea obișnuită, același lucru se întâmplă și cu acest Cod al Inteligenței Artificiale pentru lucruri precum ChatGPT.
Acest Cod este elaborat de treisprezece oameni inteligenți din universități, cu ajutorul unei tone de experți, organizații caritabile, oameni de știință și companii – aproape o mie în total. Se presupune că le va spune companiilor care produc lucruri asemănătoare ChatGPT cum să respecte regulile UE privind inteligența artificială. Dar unele grupuri se gândesc deja să renunțe la întregul sistem.
„Dacă este doar un spectacol menit să facă să pară că deciziile sunt luate în mod corect, atunci este inutil”, a spus Karine Caunes, care conduce Digihumanism și editează European Law Journal.
Alte grupuri pentru drepturile omului care lucrează la CoP-ul GPAI sunt de aceeași părere. Câțiva academicieni și persoane din organizații caritabile se gândesc chiar să plece în semn de protest, pentru că nu cred că cineva îi ascultă cu adevărat.
Lista de riscuri: Unde lucrurile devin complicate
Cea mai importantă parte a Codului este modul în care enumeră riscurile legate de inteligența artificială. Însă felul în care arată acum nu este ceea ce sperau grupurile pentru drepturi civile.
Prima regulă din legislația UE privind inteligența artificială spune că aceasta are scopul de a proteja drepturile fundamentale, amintește Sarah Andrew de la grupul Avaaz.
Însă Codul tratează riscurile la adresa drepturilor oamenilor doar ca pe „lucruri suplimentare la care să te gândești”, în loc să le plaseze printre riscurile principale. În plus, lucruri precum „multă discriminare ilegală” sau „agresarea oamenilor în moduri dăunătoare” se află pe lista riscurilor, dar au fost adăugate cuvinte care le fac să pară mai puțin importante.
Dacă au dat deja greș în modul în care enumeră riscurile, atunci întregul sistem de gestionare a inteligenței artificiale va fi defectuos, avertizează Andrew.
Lucruri lipsă: Verificarea companiilor și cunoașterea modului în care este antrenată inteligența artificială
Grupurile care se concentrează pe siguranța IA subliniază o altă problemă: nu trebuie să aibă verificări de securitate independente și nu trebuie să fie clare în ceea ce privește modul în care își antrenează modelele de IA.
Experții spun că, dacă firmele își pot testa propria inteligență artificială fără ca altcineva să se uite, sistemul va fi ușor de abuzat. O altă problemă majoră legată de Cod este dacă trebuie să împărtășească modul în care își antrenează inteligența artificială. Companiile de tehnologie nu vor să ofere detalii despre informațiile pe care le folosesc pentru a-și antrena sistemele, deoarece sunt îngrijorate de drepturile de autor și de păstrarea confidențialității datelor.
Coaliția pentru Securitate, care include și un expert bine-cunoscut pe nume Stuart Russell, a trimis o scrisoare persoanelor responsabile de Cod, în care prezintă patru lucruri principale pe care doresc să le schimbe:
- Asigurarea obligatorie a verificărilor independente ale modelelor de inteligență artificială.
- Acordați mai mult timp pentru a analiza sistemele riscante înainte de a le utiliza.
- Stabiliți niveluri clare de siguranță care, dacă sunt depășite, înseamnă că un model de inteligență artificială este prea periculos pentru a fi utilizat.
- Să creăm modalități de a gestiona noile riscuri la care nu ne-am gândit încă.
„Dacă ar face cu adevărat aceste lucruri, oamenii responsabili ar face ceea ce spun cei mai buni experți despre identificarea și gestionarea riscurilor”, susține cineva care a semnat scrisoarea.
Big Tech nu este mulțumită
În timp ce grupurile care ajută oamenii își doresc reguli mai dure, industria tehnologică vede lucrurile foarte diferit. Chiar înainte de întâlnirea pe tema inteligenței artificiale, Meta și Google au spus că nu le place deloc Codul așa cum este.
Principalul lobbyist al companiei Meta, Joel Kaplan, a numit-o „nu este practică și nu va funcționa”, iar Kent Walker de la Google a spus că este „un pas în direcția greșită”. Companiile susțin că Codul le obligă să facă mai mult decât prevede legislația UE privind inteligența artificială.
„Nu este adevărat”, spune Caunes. Codul nu ar trebui doar să repete legea, ci ar trebui să meargă mai departe, crede el.
Însă unele dintre aceste plângeri par să atragă atenția la Bruxelles. Comisia Europeană a început să vorbească despre „simplificarea regulilor” pentru a ajuta economia să crească.
Un moment destul de semnificativ la întâlnirea despre inteligența artificială a fost discursul de închidere al CEO-ului Google, Sundar Pichai. Faptul că o companie care susținea mai puține reguli a obținut un loc atât de important nu a scăpat nimănui.
„Google face presiuni discrete asupra responsabililor de Cod pentru a reduce la minimum referințele la legislația UE, având în același timp ultimul cuvânt la summit”, a comentat Andrew.
Ce urmează?
Discuțiile legate de acest Cod al Inteligenței Artificiale arată cât de mult se ciocnesc interesele oamenilor obișnuiți și ale marilor companii de tehnologie. În timp ce grupurile care susțin interesele publicului luptă pentru lucruri precum onestitatea, siguranța și drepturile omului, marile companii insistă pentru mai puține reguli și mai multă libertate de a face ce vor.
Până acum, grupurile publice nu au încetat oficial lucrul la Cod, dar au început să se sature. Dacă nimeni nu le ascultă, ar putea începe să facă lucruri care să atragă mai multă atenție.
Scris de
Modelați conversația
Aveți ceva de adăugat la această poveste? Aveți idei pentru interviuri sau unghiuri pe care ar trebui să le explorăm? Anunțați-ne dacă doriți să scrieți o continuare, un contrapunct sau să împărtășiți o poveste similară.