Schopnosti umělé inteligence se exponenciálně rozšiřují a AI se nyní využívá v průmyslových odvětvích od reklamy po lékařský výzkum. Používání AI v citlivějších oblastech, jako je software pro rozpoznávání obličeje, algoritmy náboru a poskytování zdravotní péče, urychlily debatu o zaujatosti a spravedlnosti.

Bias je dobře prozkoumaný aspekt lidské psychologie. Výzkum pravidelně odhaluje naše nevědomé preference a předsudky a nyní vidíme, že AI odráží některé z těchto předsudků ve svých algoritmech.

Jak tedy dochází k předpětí umělé inteligence? A proč na tom záleží?

Jak je AI zkreslená?

Pro zjednodušení se v tomto článku budeme zabývat strojové učení a hluboké učení algoritmy jako AI algoritmy nebo systémy.

Vědci a vývojáři mohou zavést předpětí do systémů AI dvěma způsoby.

Za prvé, kognitivní předsudky výzkumníků mohou být omylem zabudovány do algoritmů strojového učení. Kognitivní předsudky jsou nevědomé lidské vnímání, které může ovlivnit to, jak se lidé rozhodují. To se stává významným problémem, pokud se předsudky týkají lidí nebo skupin lidí a mohou těmto lidem ublížit.

instagram viewer

Tyto předsudky lze zavést přímo, ale náhodně, nebo mohou vědci trénovat AI na datových sadách, které byly ovlivněny samy o sobě. Například AI pro rozpoznávání obličeje lze trénovat pomocí datové sady, která zahrnuje pouze tváře se světlou pletí. V tomto případě bude umělá inteligence fungovat lépe, pokud jde o tváře se světlou pletí než s tmavou. Tato forma zkreslení AI je známá jako negativní dědictví.

Zadruhé, předsudky mohou nastat, když je AI trénována na neúplných datových sadách. Například pokud je AI vycvičena na datové sadě, která zahrnuje pouze počítačové vědce, nebude představovat celou populaci. To vede k algoritmům, které neposkytují přesné předpovědi.

Příklady zkreslení AI v reálném světě

Existuje několik nedávných, dobře hlášených příkladů zkreslení AI ilustrují nebezpečí umožnit těmto předsudkům vklouznout dovnitř.

Stanovení priorit zdravotní péče v USA

V roce 2019 byl navržen algoritmus strojového učení, který pomáhá nemocnicím a pojišťovacím společnostem určit, kteří pacienti by z určitých programů zdravotní péče měli největší užitek. Na základě databáze přibližně 200 milionů lidí tento algoritmus upřednostňoval bílé pacienty před černými.

Bylo zjištěno, že to bylo kvůli chybnému předpokladu v algoritmu týkajícím se měnících se nákladů na zdravotní péči mezi černými a bílými lidmi, a zkreslení bylo nakonec sníženo o 80%.

COMPAS

Korekční profil správy pachatelů pro alternativní sankce neboli COMPAS byl algoritmus AI navržený k předpovědi, zda se konkrétní lidé dopustí přestupku. Algoritmus vytvořil dvojnásobek falešných pozitiv u černých pachatelů ve srovnání s bílými pachateli. V tomto případě byla chybná jak datová sada, tak model, což zavedlo silné zkreslení.

Amazonka

Algoritmus najímání, který Amazon používá k určení vhodnosti uchazečů, byl nalezen v roce 2015 a ve velké míře upřednostňoval muže před ženami. Důvodem bylo, že datový soubor téměř výlučně obsahoval muže a jejich životopisy, protože většina zaměstnanců Amazonu jsou muži.

Jak zastavit zkreslení AI

AI již přináší revoluci ve způsobu, jakým pracujeme každé odvětví. Předpjaté systémy ovládající citlivé rozhodovací procesy jsou méně než žádoucí. V nejlepším případě snižuje kvalitu výzkumu založeného na umělé inteligenci. V nejhorším případě aktivně poškozuje menšinové skupiny.

Existují příklady algoritmů AI, které jsou již zvyklé pomáhat lidskému rozhodování snížením dopadu lidských kognitivních předsudků. Vzhledem k tomu, jak jsou algoritmy strojového učení trénovány, mohou být přesnější a méně zaujaté než lidé ve stejné pozici, což vede ke spravedlivějšímu rozhodování.

Jak jsme však ukázali, opak je také pravdou. Rizika, že je možné předpojat lidské předsudky a umocnit je pomocí AI, mohou převážit některé možné výhody.

Na konci dne, AI je jen tak dobrá jako data, se kterými je trénována. Vývoj nezaujatých algoritmů vyžaduje rozsáhlou a důkladnou předběžnou analýzu datových sad, která zajistí, že data neobsahují implicitní zkreslení. To je těžší, než to zní, protože tolik našich předsudků je v bezvědomí a často je těžké je identifikovat.

Výzvy v prevenci zkreslení AI

Při vývoji systémů AI musí být každý krok posouzen z hlediska jeho potenciálu vložit zkreslení do algoritmu. Jedním z hlavních faktorů při prevenci předpojatosti je zajištění toho, že se do algoritmu „uvaří“ spravedlnost, nikoli předpojatost.

Definování férovosti

Spravedlnost je pojem, který je relativně obtížné definovat. Ve skutečnosti jde o debatu, která nikdy nedosáhla shody. Aby to bylo ještě obtížnější, musí být při vývoji systémů AI matematicky definován koncept spravedlnosti.

Například, pokud jde o algoritmus najímání Amazonu, vypadala by spravedlnost jako dokonalé rozdělení mužů a žen na 50/50? Nebo jiný podíl?

Určení funkce

Prvním krokem ve vývoji AI je přesně určit, čeho chce dosáhnout. Pokud použijeme příklad COMPAS, algoritmus předpovídá pravděpodobnost opětovného spáchání zločinců. Poté je třeba určit jasné datové vstupy, aby algoritmus fungoval. To může vyžadovat definování důležitých proměnných, jako je počet předchozích trestných činů nebo typ spáchaných trestných činů.

Správné definování těchto proměnných je obtížný, ale důležitý krok k zajištění spravedlnosti algoritmu.

Vytvoření datové sady

Jak jsme již uvedli, hlavní příčinou zkreslení AI jsou neúplná, nereprezentativní nebo zkreslená data. Stejně jako v případě umělé inteligence pro rozpoznávání obličeje je třeba před procesem strojového učení důkladně zkontrolovat předsudky, vhodnost a úplnost vstupních dat.

Výběr atributů

V algoritmech lze určité atributy zohlednit nebo ne. Atributy mohou zahrnovat pohlaví, rasu nebo vzdělání - v zásadě vše, co může být důležité pro úkol algoritmu. V závislosti na tom, které atributy jsou vybrány, může být vážně ovlivněna prediktivní přesnost a zkreslení algoritmu. Problém je v tom, že je velmi obtížné měřit, jak je algoritmus zaujatý.

AI Bias zde není, aby zůstala

Předpětí AI nastává, když algoritmy vytvářejí zkreslené nebo nepřesné předpovědi kvůli zkresleným vstupům. Nastává, když se předpjatá nebo neúplná data odrážejí nebo zesilují během vývoje a tréninku algoritmu.

Dobrou zprávou je, že s rostoucím množstvím financování výzkumu AI se pravděpodobně dočkáme nových metod snižování nebo dokonce eliminace zkreslení AI.

E-mailem
5 společných mýtů o umělé inteligenci, které nejsou pravdivé

Pojďme nastavit záznam o některých běžných nepravdách kolem AI.

Přečtěte si další

Související témata
  • Vysvětlení technologie
  • Umělá inteligence
  • Strojové učení
O autorovi
Jake Harfield (Publikováno 6 článků)

Jake Harfield je spisovatel na volné noze se sídlem v australském Perthu. Když nepíše, obvykle je venku v křoví a fotografuje místní divokou zvěř. Můžete ho navštívit na www.jakeharfield.com

Více od Jake Harfielda

Přihlaste se k odběru našeho zpravodaje

Připojte se k našemu zpravodaji s technickými tipy, recenzemi, bezplatnými elektronickými knihami a exkluzivními nabídkami!

Ještě jeden krok…!

V e-mailu, který jsme vám právě poslali, potvrďte svou e-mailovou adresu.

.