Kódex postupov pre všeobecnú umelú inteligenciu (GPAI CoP) mal zabezpečiť, aby sa vytvorila umelá inteligencia, ktorej môžete dôverovať. Čoraz viac skupín a odborníkov však tvrdí, že by to mohlo len pomôcť veľkým spoločnostiam presadiť si svoju vôľu, namiesto toho, aby chránilo verejnosť pred rizikami umelej inteligencie. Bude vôbec dôležité, ak sa kvôli tomu nahnevajú bežní ľudia?

Kód sa dostáva do popredia

Na tom stretnutí o umelej inteligencii vo Francúzsku sa hovorilo len o peniazoch, nie o tom, ako udržať umelú inteligenciu v bezpečí alebo chrániť ľudské práva. A podľa mnohých ľudí z bežnej spoločnosti sa to isté deje s týmto kódom umelej inteligencie pre veci ako ChatGPT.

Tento kódex zostavuje trinásť inteligentných ľudí z univerzít s pomocou množstva odborníkov, charitatívnych organizácií, vedcov a spoločností – spolu takmer tisíc. Má spoločnostiam, ktoré vyrábajú veci podobné ChatGPT, povedať, ako dodržiavať pravidlá EÚ týkajúce sa umelej inteligencie. Niektoré skupiny však už uvažujú o tom, že sa ho zbavia.

„Ak je toto len predstava, ktorá má vytvoriť dojem, že rozhodnutia sa prijímajú spravodlivo, potom je to zbytočné,“ povedala Karine Caunesová, ktorá vedie Digihumanism a edituje European Law Journal.

Rovnako sa cítia aj iné skupiny pre ľudské práva, ktoré pracujú na GPAI CoP. Niekoľko akademikov a ľudí z charitatívnych organizácií dokonca uvažuje o protestnom odchode, pretože si nemyslia, že ich niekto v skutočnosti počúva.

Zoznam rizík: Kde sa veci skomplikujú

Najdôležitejšou časťou kódexu je spôsob, akým uvádza riziká umelej inteligencie. Ale spôsob, akým vyzerá teraz, nie je to, v čo dúfali skupiny pre občianske práva.

Úplne prvé pravidlo zákona EÚ o umelej inteligencii hovorí, že je tam na ochranu základných práv, pripomína Sarah Andrew zo skupiny Avaaz.

Kódex však považuje riziká pre práva ľudí len za „dodatočné veci na zamyslenie“, namiesto toho, aby ich zaradil hneď na jeden vrchol hlavných rizík. Navyše, veci ako „veľa nezákonnej diskriminácie“ alebo „zaobchádzanie s ľuďmi škodlivým spôsobom“ sú na zozname rizík, ale pridali sa k nim slová, ktoré ich robia menej dôležitými.

Ak už pokazili spôsob, akým uvádzajú riziká, potom bude celý systém riadenia umelej inteligencie chybný, varuje Andrew.

Chýbajúce veci: Kontrola spoločností a znalosť toho, ako sa umelá inteligencia trénuje

Skupiny, ktoré sa zameriavajú na bezpečnosť umelej inteligencie, poukazujú na ďalší problém: nemusia mať nezávislé bezpečnostné kontroly a nemusia mať jasno v tom, ako trénujú svoje modely umelej inteligencie.

Odborníci tvrdia, že ak si spoločnosti môžu jednoducho otestovať svoju vlastnú umelú inteligenciu bez toho, aby sa na ňu niekto pozeral, systém sa bude dať ľahko zneužiť. Ďalším veľkým problémom s kódexom je, či musia zdieľať, ako trénujú svoju umelú inteligenciu. Technologické spoločnosti nechcú zverejňovať podrobnosti o informáciách, ktoré používajú na trénovanie svojich systémov, pretože sa obávajú o autorské práva a zachovanie súkromia údajov.

Bezpečnostná koalícia, ktorej súčasťou je aj známy expert Stuart Russell, poslala ľuďom zodpovedným za kódex list so štyrmi hlavnými vecami, ktoré chcú zmeniť:

  • Zaviesť povinné nezávislé kontroly modelov umelej inteligencie.
  • Pred použitím venujte viac času na preskúmanie rizikových systémov.
  • Stanovte jasné úrovne bezpečnosti, ktorých prekročenie znamená, že použitie modelu umelej inteligencie je príliš nebezpečné.
  • Vytvoriť spôsoby, ako sa vysporiadať s novými rizikami, o ktorých sme ešte neuvažovali.

„Ak by tieto veci skutočne robili, zodpovední ľudia by robili to, čo hovoria najlepší odborníci o zisťovaní a riešení rizík,“ tvrdí niekto, kto list podpísal.

Veľké technologické spoločnosti nie sú spokojné

Zatiaľ čo skupiny, ktoré pomáhajú ľuďom, chcú prísnejšie pravidlá, technologický priemysel to vníma úplne inak. Ešte pred stretnutím o umelej inteligencii spoločnosti Meta a Google uviedli, že sa im kódex v súčasnej podobe naozaj nepáči.

Hlavný lobista spoločnosti Meta, Joel Kaplan, to označil za „nepraktické a nebude to fungovať“ a Kent Walker z Googlu povedal, že je to „krok nesprávnym smerom“. Spoločnosti tvrdia, že kódex ich núti robiť viac, než hovorí zákon EÚ o umelej inteligencii.

„To nie je pravda,“ hovorí Caunes. Kódex nemá len opakovať zákon, má ísť ešte ďalej, verí.

Zdá sa však, že niektoré z týchto sťažností v Bruseli pútajú pozornosť. Európska komisia začala hovoriť o „zjednodušení pravidiel“, aby pomohla rastu ekonomiky.

Veľmi výpovedným momentom na stretnutí o umelej inteligencii bol záverečný prejav generálneho riaditeľa spoločnosti Google Sundara Pichaia. Skutočnosť, že spoločnosť presadzujúca menej pravidiel získala také popredné miesto, nikomu neunikla pozornosť.

Andrew poznamenal, že Google potichu tlačí na ľudí zodpovedných za kódex, aby oslabili odkazy na právo EÚ, a zároveň má na summite posledné slovo.

Čo bude ďalej?

Diskusie o tomto kódexe umelej inteligencie ukazujú, do akej miery sa stretávajú záujmy bežných ľudí a veľkých technologických spoločností. Zatiaľ čo skupiny zamerané na verejnosť bojujú za veci ako čestnosť, bezpečnosť a ľudské práva, veľké spoločnosti presadzujú menej pravidiel a viac slobody robiť si, čo chcú.

Verejné skupiny zatiaľ oficiálne neprestali pracovať na Kódexe, ale už ich to nebaví. Ak ich nikto nebude počúvať, mohli by začať robiť veci, ktoré pútajú viac pozornosti.

Formujte konverzáciu

Chcete k tomuto príbehu niečo dodať? Máte nejaké nápady na rozhovory alebo uhly pohľadu, ktoré by sme mali preskúmať? Dajte nám vedieť, ak by ste chceli napísať pokračovanie, protipól alebo sa podeliť o podobný príbeh.