Nový výskum odhaľuje, že ani tie „najspravodlivejšie“ algoritmy sa nedokážu vyhnúť vplyvu ľudského úsudku, čo vyvoláva zložité otázky o tom, kto skutočne kontroluje výsledky vo svete riadenom umelou inteligenciou.

Umelá inteligencia sa v našich životoch používa čoraz viac. Aby sme ju mohli používať spravodlivo, musíme pochopiť, ako ľudia a umelá inteligencia interagujú. Hoci vývoj umelej inteligencie ponúka mnoho výhod, jej spravodlivé používanie je náročné. Umelá inteligencia sa v súčasnosti používa v dôležitých oblastiach, ako je prijímanie zamestnancov do zamestnania a poskytovanie pôžičiek.

Myslíme si, že ľudia dohliadajúci na rozhodnutia umelej inteligencie zabránia diskriminácii, ale výskum EU Policy Lab , podporovaný Európskym centrom pre algoritmickú transparentnosť ( ECAT ), ukazuje, že je to zložitejšie.

Spravodlivosť v umelej inteligencii – zložitejšia, než sme si mysleli

Ich štúdia zistila, že ľudia často slepo nasledujú odporúčania umelej inteligencie, aj keď sú nespravodlivé.

Experimenty s odborníkmi z oblasti ľudských zdrojov a bankovníctva ukázali, že rozhodnutia o prijímaní zamestnancov a pôžičkách s pomocou umelej inteligencie boli stále ovplyvnené ľudskými predsudkami, a to aj v prípade, že umelá inteligencia bola navrhnutá tak, aby bola neutrálna.

Ani „férová“ umelá inteligencia nedokázala tieto predsudky úplne odstrániť. Rozhovory a workshopy ukázali, že profesionáli sa často viac zaujímali o ciele svojej spoločnosti než o to, aby boli spravodliví. To ukazuje, že potrebujeme jasnejšie pravidlá o tom, kedy ignorovať odporúčania umelej inteligencie.

Smerom k systémovej spravodlivosti

Výskum EU Policy Lab zdôrazňuje potrebu ísť ďalej od obyčajného dohľadu nad umelou inteligenciou zo strany jednotlivcov a namiesto toho prijať celosystémový prístup, ktorý rieši ľudské aj algoritmické skreslenia. Na účinné minimalizovanie diskriminácie je potrebné konať na viacerých úrovniach.

Technické opatrenia by mali zabezpečiť, aby systémy umelej inteligencie boli navrhnuté tak, aby boli spravodlivé, a aby sa pravidelne aktualizovali, aby sa predišlo potenciálnym chybám. Strategické organizačné zásahy môžu vytvoriť kultúru, ktorá si cení spravodlivosť, vrátane školenia zamestnancov o tom, ako spravovať nástroje umelej inteligencie.

Dôležité sú aj politické opatrenia – stanovenie jasných usmernení pre spoluprácu medzi človekom a umelou inteligenciou pomôže lepšie riadiť riziko diskriminácie.

Výzva pri rozhodovaní ľudí a umelej inteligencie

Veľkým problémom je, ako ľudia a umelá inteligencia spoločne prijímajú rozhodnutia. Článok 14 zákona EÚ o umelej inteligencii hovorí, že ľudský dohľad by mal zabrániť problémom spôsobeným zle naprogramovanými systémami. Ľudia však v skutočnosti často ignorujú, čo umelá inteligencia navrhuje, alebo používajú svoje vlastné predsudky, čo narúša myšlienku spravodlivých rozhodnutí.

Štúdia s 1 400 odborníkmi z Nemecka a Talianska ukázala, že ľudskí supervízori mali tendenciu ignorovať „spravodlivé“ odporúčania umelej inteligencie a riadiť sa vlastným pocitom, ktorý je často skreslený.

Počas rozhovorov a workshopov ľudia priznali, že ich rozhodnutia boli založené na mnohých faktoroch, dokonca aj na nevedomých predsudkoch. To ukazuje, že týmto veciam musíme porozumieť a zaoberať sa nimi.

Dať osobám s rozhodovacou právomoc robiť správne rozhodnutia

Aby sme skutočne znížili zaujatosť v rozhodnutiach s pomocou umelej inteligencie, je mimoriadne dôležité poskytnúť osobám s rozhodovacou právomocou správne nástroje a pravidlá. Musíme mať úplne jasnú predstavu o tom, kedy je v poriadku ignorovať návrhy umelej inteligencie a musíme sledovať, ako sa veci vyvíjajú.

Ak poskytneme osobám s rozhodovacou právomocou informácie o tom, ako sa im darí a kde by mohli robiť chyby, môže im to pomôcť robiť lepšie rozhodnutia. To ich núti premýšľať o svojich rozhodnutiach, čo vedie k spravodlivejším a vyváženejším procesom podporovaným umelou inteligenciou.

Zákon o umelej inteligencii – prelomový

Zákon EÚ o umelej inteligencii, ktorý bol prijatý minulý rok, stanovuje pravidlá pre umelú inteligenciu a je považovaný za globálny štandard.

Zistenie EU Policy Lab je skutočne dôležité pre tvorbu budúcich pravidiel a usmernení – nejde len o dodržiavanie predpisov, ale aj o ich fungovanie v reálnom živote.

Výskum ukazuje, že zabezpečenie spravodlivej umelej inteligencie si vyžaduje neustálu prácu a flexibilný prístup. Je to na ľuďoch, ktorí systémy vytvárajú, aj na ľuďoch, ktorí ich používajú. Ak nezvolíme široký prístup – pohľad na sociálne, technické a politické záležitosti – bude ťažké zabezpečiť spravodlivú umelú inteligenciu.

Kľúčové body z výskumu

Výskum EU Policy Lab využil kombináciu metód, aby ukázal, aká zložitá je v skutočnosti spravodlivosť v oblasti umelej inteligencie. Aby sme mohli vybudovať spravodlivejšie a otvorenejšie systémy umelej inteligencie, musíme pochopiť, ako ľudia a umelá inteligencia prijímajú rozhodnutia a ako sa navzájom ovplyvňujú.

Dosiahnutie spravodlivosti si v konečnom dôsledku vyžaduje viac než len odstránenie zaujatosti v algoritmoch. Vyžaduje si to aj starostlivý výber tréningových a validačných údajov, aby sa zabránilo prenosu ľudských predsudkov alebo úmyselných dezinformácií do systémov umelej inteligencie. Okrem toho je rovnako dôležitý posun v ľudských postojoch a organizačných prístupoch. Používanie umelej inteligencie na prijímanie rozhodnutí nám dáva šancu zamyslieť sa nad vlastnými zaujatosťami a nad tým, ako robíme rozhodnutia, a to osobne aj ako spoločnosť.

Formujte konverzáciu

Chcete k tomuto príbehu niečo dodať? Máte nejaké nápady na rozhovory alebo uhly pohľadu, ktoré by sme mali preskúmať? Dajte nám vedieť, ak by ste chceli napísať pokračovanie, protipól alebo sa podeliť o podobný príbeh.