Ať už se jedná o špatná data nebo špatné uživatele, umělá inteligence vytvořená pomocí strojového učení může nakonec dělat vážné chyby.

Strojové učení je skvělý způsob, jak vytvořit umělou inteligenci, která je výkonná a přizpůsobuje se svým tréninkovým datům. Někdy však tato data mohou způsobit problémy. Jindy je problémem způsob, jakým lidé tyto nástroje AI používají.

Zde je pohled na některé významné incidenty, kdy strojové učení vedlo k problematickým výsledkům.

1. Chyby ve výsledcích vyhledávání obrázků Google

Díky Vyhledávání Google je navigace na webu mnohem jednodušší. Algoritmus motoru bere v úvahu různé věci při chrlení výsledků. Algoritmus se ale také učí z provozu uživatelů, což může způsobit problémy s kvalitou výsledků vyhledávání.

Nikde to není patrnější než ve výsledcích obrázků. Vzhledem k tomu, že u stránek s vysokou návštěvností je pravděpodobnější, že se zobrazí jejich obrázky, mohou být upřednostněny příběhy, které přitahují vysoký počet uživatelů, včetně clickbaitů.

Například výsledky vyhledávání obrázků pro „squatterské tábory v Jižní Africe“ vyvolaly kontroverzi, když se zjistilo, že v nich převažují bílí Jihoafričany. A to navzdory statistikám, které ukazují, že drtivou většinu lidí žijících v neformálním bydlení tvoří černí Jihoafričané.

Faktory použité v algoritmu Google také znamenají, že uživatelé internetu mohou manipulovat s výsledky. Například kampaň uživatelů ovlivnila výsledky Vyhledávání obrázků Google do té míry, že při hledání výrazu „idiot“ se na určitou dobu zobrazily obrázky bývalého amerického prezidenta Donalda Trumpa.

2. Microsoft Bot Tay se proměnil v nacistu

Chatboti s umělou inteligencí jsou extrémně populární, zejména ti, kteří využívají velké jazykové modely, jako je ChatGPT. ChatGPT má několik problémů, ale jeho tvůrci se poučili i z chyb jiných společností.

Jedním z nejsledovanějších incidentů chatbotů, které se zvrtly, byl pokus Microsoftu spustit svého chatbota Tay.

Tay napodobila jazykové vzorce dospívající dívky a naučila se prostřednictvím svých interakcí s ostatními uživateli Twitteru. Stala se však jedním z neslavnějších přešlapů AI, když začala sdílet nacistická prohlášení a rasové nadávky. Ukázalo se, že trollové proti ní použili strojové učení AI a zaplavili ji interakcemi nabitými fanatismem.

Nedlouho poté Microsoft převedl Tay do režimu offline.

3. Problémy s rozpoznáváním obličeje AI

Umělá inteligence pro rozpoznávání obličeje se často objevuje na titulcích ze všech nesprávných důvodů, jako jsou příběhy o rozpoznávání obličeje a obavách o soukromí. Ale tato umělá inteligence má problematickou historii, když se pokouší rozpoznat lidi s jinou barvou pleti.

V roce 2015 uživatelé zjistili, že Fotky Google kategorizují některé černochy jako gorily. V roce 2018 výzkum ACLU ukázal, že software pro identifikaci obličeje Amazon Rekognition identifikoval 28 členové Kongresu USA jako podezřelí z policie, přičemž falešně pozitivní výsledky neúměrně ovlivňují lidi z barva.

Další incident zahrnoval, že software Face ID společnosti Apple nesprávně identifikoval dvě různé Číňanky jako stejnou osobu. Díky tomu mohl kolega majitele iPhonu X telefon odemknout.

Jako příklad extrémních následků vedla umělá inteligence rozpoznávání obličeje k neoprávněnému zatčení několika lidí. Kabelové hlášeny tři takové případy.

Mezitím si počítačová vědkyně Joy Buolamwini vzpomněla, že při práci na technologii rozpoznávání obličeje často potřebovala nosit bílou masku, aby ji software rozpoznal. Aby se vyřešily problémy, jako je tento, Buolamwini a další IT profesionálové upozorňují na problém zkreslení umělé inteligence a na potřebu inkluzivnějších datových sad.

4. Deepfakes používané pro hoaxy

Zatímco lidé již dlouho používají Photoshop k vytváření falešných obrázků, strojové učení to posouvá na novou úroveň. Deepfakes používají hloubkové učení AI k vytváření falešných obrázků a videí. Software jako FaceApp vám umožňuje přepínat obličeje z jednoho videa do druhého.

Mnoho lidí však tento software zneužívá k různým škodlivým účelům, včetně vkládání tváří celebrit do videí pro dospělé nebo generování podvodných videí. Mezitím uživatelé internetu pomohli vylepšit technologii, aby bylo stále obtížnější odlišit skutečná videa od falešných. Výsledkem je, že tento typ AI je velmi silný, pokud jde o šíření falešných zpráv a hoaxů.

Aby ukázali sílu této technologie, vytvořili režisér Jordan Peele a CEO BuzzFeed Jonah Peretti a deepfake video ukazující to, co se zdá být bývalým americkým prezidentem Barackem Obamou, který poskytuje PSA na síle deepfakes.

Sílu falešných obrázků urychlily generátory obrázků poháněné umělou inteligencí. Virální příspěvky v roce 2023 zobrazující zatčení Donalda Trumpa a katolického papeže v nafouknuté bundě se ukázaly být výsledkem generativní umělé inteligence.

Existují tipy, kterými se můžete řídit, abyste našli obrázek generovaný umělou inteligencí, ale technologie je stále sofistikovanější.

5. Zaměstnanci říkají, že Amazon AI se rozhodl najmout muže je lepší

V říjnu 2018 Reuters oznámil, že Amazon musel zrušit nástroj pro nábor pracovních míst poté, co AI softwaru rozhodla, že mužští kandidáti jsou preferenční.

Zaměstnanci, kteří si přáli zůstat v anonymitě, se přihlásili, aby agentuře Reuters řekli o své práci na projektu. Vývojáři chtěli, aby umělá inteligence identifikovala nejlepší kandidáty na práci na základě jejich životopisů. Lidé zapojení do projektu si však brzy všimli, že AI penalizovala kandidátky. Vysvětlili, že AI používala jako svůj tréninkový datový soubor životopisy z poslední dekády, z nichž většina pocházela od mužů.

V důsledku toho začala AI filtrovat životopisy na základě klíčového slova „ženy“. Klíčové slovo se v životopise objevilo pod aktivitami jako „kapitánka ženského šachového klubu“. Zatímco vývojáři změnili AI, aby zabránili penalizaci ženských životopisů, Amazon nakonec projekt zrušil.

6. Jailbreaknutý chatboti

Zatímco novější chatboti mají omezení, která jim brání v poskytování odpovědí, které jsou v rozporu s jejich podmínkami služby, uživatelé hledají způsoby, jak útěk z vězení získat nástroje k poskytování zakázaného obsahu.

V roce 2023 dokázal bezpečnostní výzkumník Forcepoint Aaron Mulgrew vytvořit zero-day malware pomocí výzev ChatGPT.

"Jednoduchým použitím výzev ChatGPT a bez psaní jakéhokoli kódu jsme byli schopni vytvořit velmi pokročilý útok za pouhých několik hodin," řekl Mulgrew. Příspěvek Forcepoint.

Uživatelům se také údajně podařilo přimět chatboty, aby jim dali instrukce, jak sestrojit bomby nebo ukrást auta.

7. Autonehody s vlastním řízením

Nadšení pro autonomní vozidla bylo utlumeno od počáteční fáze humbuku kvůli chybám, kterých se dopustila samořídící AI. v roce 2022 Washington Post uvedl, že zhruba za rok bylo americkému národnímu úřadu pro bezpečnost silničního provozu nahlášeno 392 nehod zahrnujících pokročilé asistenční systémy pro řidiče.

Tyto nehody si vyžádaly vážná zranění a šest mrtvých.

I když to nezabránilo společnostem jako Tesla v prosazování zcela autonomních vozidel, je tomu tak vyvolalo obavy z nárůstu nehod, protože se na něj dostane více aut se softwarem pro autonomní řízení silnice.

Umělá inteligence se strojovým učením není spolehlivá

I když strojové učení může vytvářet výkonné nástroje umělé inteligence, nejsou imunní vůči špatným datům nebo lidské manipulaci. Tento typ umělé inteligence vedl k mnoha negativním incidentům, ať už kvůli chybným tréninkovým datům, omezením technologie AI nebo používání špatnými herci.