Kodeks postępowania w zakresie sztucznej inteligencji ogólnego przeznaczenia (GPAI CoP) miał zapewnić, że sztuczna inteligencja, której możesz zaufać, zostanie zbudowana. Jednak coraz więcej grup i ekspertów twierdzi, że może to po prostu pomóc dużym firmom w osiągnięciu ich celu, zamiast chronić społeczeństwo przed ryzykiem związanym ze sztuczną inteligencją. Czy zwykli ludzie, którzy się na to wściekają, będą mieli jakiekolwiek znaczenie?
Kod staje się gorący
Na tym spotkaniu AI we Francji wszyscy mówili tylko o pieniądzach, a nie o zapewnieniu bezpieczeństwa AI lub ochronie praw ludzi. A według wielu osób ze zwykłego społeczeństwa to samo dzieje się z tym kodem AI dla rzeczy takich jak ChatGPT.
Ten Kodeks jest tworzony przez trzynaście inteligentnych osób z uniwersytetów, z pomocą mnóstwa ekspertów, organizacji charytatywnych, naukowców i firm – w sumie prawie tysiąca. Ma on informować firmy produkujące rzeczy podobne do ChatGPT, jak przestrzegać przepisów UE dotyczących sztucznej inteligencji. Jednak niektóre grupy już myślą o porzuceniu całej tej rzeczy.
„Jeśli to tylko pokazówka, mająca sprawiać wrażenie, że decyzje są podejmowane uczciwie, to nie ma to sensu” – powiedziała Karine Caunes, która kieruje Digihumanism i jest redaktorką European Law Journal.
Inne grupy praw człowieka pracujące nad GPAI CoP czują to samo. Kilku naukowców i ludzi z organizacji charytatywnych myśli nawet o wyjściu na protest, ponieważ nie sądzą, że ktokolwiek ich słucha.
Lista ryzyka: gdzie sprawy stają się skomplikowane
Najważniejszą częścią Kodeksu jest sposób, w jaki wymienia zagrożenia związane ze sztuczną inteligencją. Jednak sposób, w jaki wygląda teraz, nie jest tym, na co liczyły grupy walczące o prawa obywatelskie.
Jak przypomina Sarah Andrew z grupy Avaaz, pierwsza zasada unijnego prawa dotyczącego sztucznej inteligencji mówi, że jej celem jest ochrona podstawowych praw.
Ale Kodeks traktuje zagrożenia dla praw ludzi jako „dodatkowe rzeczy do przemyślenia”, zamiast umieścić je na szczycie listy głównych zagrożeń. Ponadto, rzeczy takie jak „dużo nielegalnej dyskryminacji” lub „igranie z ludźmi w szkodliwy sposób” znajdują się na liście zagrożeń, ale dodano słowa, które sprawiają, że wydają się mniej ważne.
Andrew ostrzega, że jeśli popełnili błąd w sposobie wyliczania zagrożeń, cały system zarządzania sztuczną inteligencją będzie wadliwy.
Brakujące rzeczy: sprawdzanie firm i wiedza o tym, jak szkolona jest sztuczna inteligencja
Grupy zajmujące się bezpieczeństwem sztucznej inteligencji wskazują na inny problem: nie muszą przeprowadzać niezależnych kontroli bezpieczeństwa i nie muszą jasno określać, w jaki sposób szkolą swoje modele sztucznej inteligencji.
Eksperci twierdzą, że jeśli firmy będą mogły po prostu testować własną sztuczną inteligencję bez niczyjej pomocy, system będzie łatwy do nadużycia. Innym poważnym problemem związanym z Kodeksem jest to, czy muszą dzielić się sposobem szkolenia swojej sztucznej inteligencji. Firmy technologiczne nie chcą ujawniać szczegółów dotyczących informacji, których używają do szkolenia swoich systemów, ponieważ obawiają się praw autorskich i zachowania prywatności danych.
Koalicja ds. Bezpieczeństwa, w skład której wchodzi znany ekspert o nazwisku Stuart Russell, wysłała list do osób odpowiedzialnych za Kodeks, w którym wymieniła cztery główne rzeczy, które chciałaby zmienić:
- Wprowadzenie obowiązku niezależnej kontroli modeli sztucznej inteligencji.
- Daj więcej czasu na przyjrzenie się ryzykownym systemom, zanim zostaną użyte.
- Ustal jasne poziomy bezpieczeństwa, których przekroczenie spowoduje, że korzystanie z modelu sztucznej inteligencji będzie zbyt niebezpieczne.
- Stwórzmy sposoby radzenia sobie z nowymi zagrożeniami, o których jeszcze nie pomyśleliśmy.
„Gdyby faktycznie to zrobili, osoby odpowiedzialne robiłyby to, co mówią najlepsi eksperci o określaniu i radzeniu sobie z ryzykiem” – twierdzi osoba podpisana pod listem.
Wielkie firmy technologiczne nie są zadowolone
Podczas gdy grupy, które pomagają ludziom, chcą surowszych zasad, branża technologiczna widzi to zupełnie inaczej. Nawet przed spotkaniem AI, Meta i Google powiedziały, że naprawdę nie podoba im się Kodeks w obecnej formie.
Główny lobbysta Meta, Joel Kaplan, nazwał to „niepraktycznym i niedziałającym”, a Kent Walker z Google powiedział, że jest to „krok w złym kierunku”. Firmy twierdzą, że Kodeks zmusza je do zrobienia czegoś więcej, niż mówi prawo UE dotyczące sztucznej inteligencji.
„To nieprawda” – mówi Caunes. Kodeks nie ma po prostu powtarzać prawa, ma iść dalej, uważa.
Ale niektóre z tych skarg wydają się być brane pod uwagę w Brukseli. Komisja Europejska zaczęła mówić o „uproszczeniu zasad”, aby pomóc gospodarce się rozwijać.
Dość wymownym momentem na spotkaniu AI było przemówienie końcowe wygłoszone przez CEO Google, Sundara Pichai. Fakt, że firma, która naciskała na mniej zasad, zajęła tak ważne miejsce, nie umknął niczyjej uwadze.
Google po cichu wywiera presję na osoby odpowiedzialne za Kodeks, aby osłabiły odniesienia do prawa UE, ale jednocześnie będą musiały podjąć ostateczną decyzję na szczycie – skomentował Andrew.
Co dalej?
Przepychanki na temat tego Kodeksu AI pokazują, jak bardzo sprzeczne są interesy zwykłych ludzi i dużych firm technologicznych. Podczas gdy grupy działające na rzecz społeczeństwa walczą o takie rzeczy jak uczciwość, bezpieczeństwo i prawa człowieka, duże firmy naciskają na mniej zasad i większą swobodę robienia tego, czego chcą.
Jak dotąd grupy publiczne oficjalnie nie zaprzestały pracy nad Kodeksem, ale mają już tego dość. Jeśli nikt ich nie posłucha, mogą zacząć robić rzeczy, które przyciągną więcej uwagi.
Napisany przez
Kształt rozmowy
Czy masz coś do dodania do tej historii? Jakieś pomysły na wywiady lub kąty, które powinniśmy zbadać? Daj nam znać, jeśli chcesz napisać kontynuację, kontrapunkt lub podzielić się podobną historią.