Nowe badania ujawniają, że nawet najbardziej „sprawiedliwe” algorytmy nie są w stanie uwolnić się od wpływu ludzkiej oceny, co rodzi trudne pytania o to, kto tak naprawdę kontroluje wyniki w świecie napędzanym przez sztuczną inteligencję.

AI jest coraz częściej wykorzystywana w naszym życiu. Aby używać jej uczciwie, musimy zrozumieć, jak ludzie i AI wchodzą ze sobą w interakcje. Podczas gdy rozwój AI oferuje wiele korzyści, uczciwe korzystanie z niej jest trudne. AI jest obecnie wykorzystywana w ważnych obszarach, takich jak zatrudnianie i pożyczki.

Uważamy, że nadzorowanie przez ludzi decyzji podejmowanych przez sztuczną inteligencję zapobiegnie dyskryminacji, jednak badania EU Policy Lab , wspierane przez Europejskie Centrum Przejrzystości Algorytmicznej ( ECAT ), pokazują, że jest to bardziej skomplikowane.

Sprawiedliwość w AI – trudniejsza niż myśleliśmy

Z ich badania wynika, że ​​ludzie często ślepo podążają za zaleceniami sztucznej inteligencji, nawet jeśli są one niesprawiedliwe.

Eksperymenty przeprowadzone z udziałem specjalistów ds. kadr i bankowości wykazały, że na decyzje dotyczące zatrudnienia i udzielania pożyczek przy wsparciu sztucznej inteligencji nadal wpływają ludzkie uprzedzenia, nawet gdy sztuczna inteligencja została zaprojektowana tak, aby zachować neutralność.

Nawet „sprawiedliwa” sztuczna inteligencja nie była w stanie całkowicie wyeliminować tych uprzedzeń. Wywiady i warsztaty wykazały, że profesjonaliści często bardziej dbali o cele swojej firmy niż o uczciwość. To pokazuje, że potrzebujemy jaśniejszych zasad dotyczących tego, kiedy ignorować zalecenia sztucznej inteligencji.

W stronę sprawiedliwości systemowej

Badania EU Policy Lab podkreślają potrzebę wyjścia poza nadzorowanie AI przez jednostki i przyjęcia podejścia systemowego, które uwzględnia zarówno ludzkie, jak i algorytmiczne uprzedzenia. Aby skutecznie zminimalizować dyskryminację, konieczne jest działanie na wielu poziomach.

Środki techniczne powinny zapewnić, że systemy AI są projektowane tak, aby były uczciwe i regularnie aktualizowane, aby uniknąć potencjalnych błędów. Strategiczne interwencje organizacyjne mogą stworzyć kulturę, która ceni uczciwość, w tym szkolenie pracowników w zakresie zarządzania narzędziami AI.

Działania polityczne mają również kluczowe znaczenie – ustalenie jasnych wytycznych dotyczących współpracy człowieka ze sztuczną inteligencją pomoże lepiej zarządzać ryzykiem dyskryminacji.

Wyzwanie podejmowania decyzji przez człowieka i sztuczną inteligencję

Najważniejszym problemem jest to, jak ludzie i AI wspólnie podejmują decyzje. Artykuł 14 unijnej ustawy o AI mówi, że ludzki nadzór powinien zapobiegać problemom wynikającym ze źle zaprogramowanych systemów. Ale tak naprawdę ludzie często ignorują sugestie AI lub kierują się własnymi uprzedzeniami, co psuje ideę sprawiedliwych decyzji.

Badanie przeprowadzone wśród 1400 specjalistów z Niemiec i Włoch wykazało, że ludzcy przełożeni mieli tendencję do odrzucania „sprawiedliwych” zaleceń sztucznej inteligencji i kierowania się własną intuicją, która często jest stronnicza.

Podczas wywiadów i warsztatów ludzie przyznawali, że ich decyzje opierały się na wielu rzeczach, nawet nieświadomych uprzedzeniach. To pokazuje, że musimy zrozumieć i poradzić sobie z tymi rzeczami.

Dajemy osobom podejmującym decyzje możliwość dokonywania właściwych wyborów

Aby naprawdę ograniczyć stronniczość w decyzjach wspomaganych przez AI, niezwykle ważne jest zapewnienie decydentom odpowiednich narzędzi i zasad. Musimy mieć jasność co do tego, kiedy można zignorować sugestie AI, i musimy mieć oko na to, jak sprawy się mają.

Jeśli damy decydentom informacje o tym, jak sobie radzą i gdzie mogą popełniać błędy, może to pomóc im podejmować lepsze decyzje. To skłania ich do myślenia o swoich decyzjach, co prowadzi do sprawiedliwszych i bardziej zrównoważonych procesów wspieranych przez sztuczną inteligencję.

Ustawa o sztucznej inteligencji – przełomowa zmiana

Przyjęta w zeszłym roku unijna ustawa o sztucznej inteligencji ustanawia przepisy dotyczące sztucznej inteligencji i jest uznawana za światowy standard.

Wyniki badań EU Policy Lab są naprawdę ważne dla tworzenia przyszłych przepisów i wytycznych – nie chodzi tu tylko o przestrzeganie przepisów, ale też o to, aby działały w praktyce.

Badania pokazują, że zapewnienie uczciwości AI wymaga ciągłej pracy i elastycznego podejścia. Zależy to zarówno od ludzi, którzy tworzą systemy, jak i od ludzi, którzy ich używają. Jeśli nie podejmiemy szerokiego podejścia – biorąc pod uwagę kwestie społeczne, techniczne i polityczne – trudno będzie uczynić AI uczciwą.

Kluczowe punkty badań

Badania EU Policy Lab wykorzystały mieszankę metod, aby pokazać, jak skomplikowana jest sprawiedliwość w AI. Aby budować sprawiedliwsze i bardziej otwarte systemy AI, musimy zrozumieć, w jaki sposób ludzie i AI podejmują decyzje i jak na siebie wpływają.

Ostatecznie osiągnięcie sprawiedliwości wymaga czegoś więcej niż tylko wyeliminowania stronniczości w algorytmach. Wymaga również starannego doboru danych szkoleniowych i walidacyjnych, aby zapobiec przenoszeniu ludzkich uprzedzeń lub celowej dezinformacji do systemów AI. Ponadto równie istotna jest zmiana ludzkich postaw i podejść organizacyjnych. Korzystanie ze sztucznej inteligencji do podejmowania decyzji daje nam szansę na zastanowienie się nad naszymi własnymi uprzedzeniami i sposobem dokonywania wyborów, zarówno osobiście, jak i jako społeczeństwo.

Kształt rozmowy

Czy masz coś do dodania do tej historii? Jakieś pomysły na wywiady lub kąty, które powinniśmy zbadać? Daj nam znać, jeśli chcesz napisać kontynuację, kontrapunkt lub podzielić się podobną historią.