Umělá inteligence Tay od Microsoftu se ze slibné umělé inteligence stala totální katastrofou za méně než jeden den. Zde je to, co se společnost naučila.
Chatboti s umělou inteligencí jako ChatGPT se stále více stávají nedílnou součástí moderních technologií, ale generativní umělá inteligence nebyla vždy tak dobrá jako dnes. Ve skutečnosti nám v roce 2016 chatbot Tay vytvořený společností Microsoft ukázal, jak rychle může umělá inteligence selhat.
Pojďme prozkoumat, jaký byl chatbot Tay společnosti Microsoft s umělou inteligencí, proč selhal, jaké jsou jeho kontroverze a jaké lekce se společnost naučila po svém katastrofálním selhání.
Jaký byl Microsoft's Tay?
Tay byl AI chatbot vyvinutý společností Microsoft a zpřístupněný prostřednictvím Twitteru 23. března 2016. Chatbot byl vyvinut pro lidi ve věku 18 až 24 let v USA pro „účely zábavy“ a pro „experimentování a provádění výzkumu porozumění konverzaci“.
Tay neměla být sofistikovaným chatbotem jako ChatGPT, ale přátelským robotem s umělou inteligencí na Twitteru, se kterým byste mohli konverzovat – něco jako
Moje AI na Snapchatu, ale pro socializaci.Proč Microsoft ukončil činnost Taye?
Microsoft stáhl Tay do 24 hodin od uvedení do provozu – z dobrého důvodu. Téměř okamžitě po představení Tay začali uživatelé Twitteru zneužívat službu tím, že krmili chatbota dezinformace, učit je hanlivým výrazům a podněcovat je, aby byly stále urážlivější, jen aby viděli, jak daleko to je šel by.
A zašlo to opravdu daleko. Během několika hodin po spuštění Tay tweetovala některé z nejurážlivějších rasových nadávek, šířila nenávistné projevy, propagovala nacismus a dokonce inspirovala „rasovou válku“. Fuj! Je zřejmé, že Microsoft měl hrozné časy a nemohl nechat službu pokračovat.
V příspěvek na oficiálním blogu společnosti Microsoft, Corporate Vice President společnosti Microsoft Peter Lee zopakoval totéž:
Hluboce se omlouváme za nezamýšlené urážlivé a zraňující tweety od Tay, které nereprezentují, kdo jsme nebo co zastáváme, ani to, jak jsme Tay navrhli. Tay je nyní offline a budeme se snažit přivést Tay zpět pouze tehdy, když si budeme jisti, že dokážeme lépe předvídat nekalé úmysly, které jsou v rozporu s našimi zásadami a hodnotami.
Debakl Tay je jen jedním z mnoha nebezpečí umělé inteligence a důrazné připomenutí toho, proč by jeho vývoj měl být prováděn s maximální opatrností a nadhledem.
6 lekcí, které se Microsoft naučil po Tay
Tay byla naprostá katastrofa, ale Microsoftu také dala několik zásadních lekcí, pokud jde o vývoj nástrojů umělé inteligence. A za co to stojí, je pravděpodobně k lepšímu, že se Microsoft poučil dříve než později, což mu umožnilo získat náskok před Googlem a vyvinout nové Prohlížeč Bing s umělou inteligencí.
Zde jsou některé z těchto lekcí:
1. Internet je plný trollů
Internet je plný trollů a to není zrovna novinka, že? Zřejmě tomu tak bylo u Microsoftu v roce 2016. Netvrdíme, že vybudování chatbota pro „zábavní účely“ zaměřeného na 18 až 24leté mělo co do činění s mírou zneužívání služby. Přesto to rozhodně také nebyl nejchytřejší nápad.
Lidé přirozeně chtějí otestovat limity nových technologií a nakonec je úkolem vývojáře zodpovědět tyto škodlivé útoky. Svým způsobem fungují interní trollové jako mechanismus zpětné vazby pro zajištění kvality, ale to neznamená, že by měl být chatbot uvolněn, aniž by byly před spuštěním zavedeny náležité záruky.
2. AI nedokáže intuitivně rozlišovat mezi dobrým a špatným
Koncept dobra a zla je něco, čemu AI intuitivně nerozumí. Musí být naprogramován tak, aby simuloval znalost toho, co je správné a špatné, co je morální a nemorální a co je normální a zvláštní.
Tyto vlastnosti jsou lidem jako společenským tvorům víceméně přirozené, ale umělá inteligence nedokáže vytvářet nezávislé úsudky, cítit empatii nebo prožívat bolest. To je důvod, proč když uživatelé Twitteru krmili Taye všemi druhy propagandy, robot ho jednoduše následoval – aniž by si byl vědom etiky informací, které shromažďoval.
3. Neškolte modely umělé inteligence pomocí konverzací lidí
Tay byla vytvořena „těžbou relevantních veřejných dat a používáním AI a redakcí vyvinutých zaměstnanci, včetně improvizační komici." Trénovat model umělé inteligence pomocí konverzací lidí na internetu je hrozné idea.
A než to budete vinit na Twitteru, vězte, že výsledek by byl pravděpodobně stejný bez ohledu na platformu. Proč? Protože lidé na internetu prostě nejsou jejich nejlepší já. Dostávají se do emocí, používají slangová slova a svou anonymitu využívají k tomu, aby byli hanební.
4. Umělá inteligence postrádá zdravý rozum a nedostává sarkasmus
Umělá inteligence se dnes zdá být intuitivnější (nebo, přesněji řečeno, lépe simuluje intuici), ale stále někdy bojuje s rozpoznáním sarkasmu a slovních obratů. Ještě více to platilo v roce 2016. Co je zřejmé lidem, není zřejmé AI; jinými slovy, postrádá zdravý rozum.
Umělé inteligence jako Tay nechápou, proč jsou lidé takoví, jací jsme, jednají tak, jak jednáme, a výstřednosti každého jednotlivce. Může se chovat a znít překvapivě lidsky, ale dobré programování může dojít jen tak daleko.
5. AI musí být naprogramována tak, aby odmítala neplatné požadavky
AI je velmi ovlivnitelná a musí být naprogramována tak, aby odmítala požadavky propagující poškození. I dnes, po všech našich pokrokech ve zpracování přirozeného jazyka, lidé stále nacházejí lingvistické mezery nechat AI chatboty jako ChatGPT „halucinovat“ a poskytovat výsledky, které měly být omezeny.
Tady jde o to, že umělá inteligence je dokonale poslušná, což je možná její největší síla a slabina. Vše, co nechcete, aby chatbot dělal, do něj musíte ručně naprogramovat.
6. AI Chatboti by nikdy neměli zůstat bez dozoru
Dokud se umělá inteligence nedokáže sama regulovat, nelze ji nechat bez dozoru. Můžete si představit dnešní AI jako zázračné dítě; v některých ohledech je to skvělé, ale přesto je to stále dítě. Pokud je necháte bez dozoru, lidé využijí jeho slabosti – a Tay toho byla ukázkovým příkladem.
Umělá inteligence je nástroj, stejně jako internet, ale rychlost a rozsah, ve kterém se věci mohou s umělou inteligencí vymstít, jsou mnohem větší než to, co jsme zažili v prvních dnech internetu.
AI potřebuje neustálý dohled a regulaci
Tay není jediný chatbot, který se stal nepoctivým – bylo mnoho dalších podobných případů. Ale to, co jej vyniklo, je naprostá rychlost, s jakou se to podařilo – a skutečnost, že jej vyrobil technologický gigant, jako je Microsoft.
Příklady, jako je tento, ukazují, jak opatrní musíme být při vývoji nástrojů umělé inteligence, zvláště když je mají používat běžní lidé.