Generativní umělá inteligence je skvělá, ale své informace vždy prezentuje s absolutní autoritou. Což je skvělé, pokud to není halucinace pravdy.

Halucinace umělé inteligence (AI) zní zmateně. Pravděpodobně si říkáte: "Není halucinace lidský fenomén?" No, ano, býval to výhradně člověk dokud AI nezačala vykazovat lidské vlastnosti, jako je rozpoznávání obličeje, samoučení a řeč uznání.

Bohužel AI na sebe vzala některé negativní atributy, včetně halucinací. Je tedy halucinace AI podobná halucinacím, které zažívají lidé?

Co je halucinace AI?

K halucinaci umělé inteligence dochází, když model AI generuje výstupy odlišné od toho, co se očekává. Všimněte si, že některé modely umělé inteligence jsou trénovány tak, aby záměrně generovaly výstupy, které nesouvisí s žádným reálným vstupem (daty).

Například, špičkové generátory AI text-to-art, jako je DALL-E 2, může kreativně vytvářet nové obrázky, které můžeme označit jako „halucinace“, protože nejsou založeny na datech z reálného světa.

Halucinace AI v modelech zpracování velkých jazyků

instagram viewer

Zvažme, jak by halucinace AI vypadaly ve velkém modelu zpracování jazyka, jako je ChatGPT. Halucinace ChatGPT by vedla k tomu, že by vám bot poskytl nesprávný fakt s nějakým tvrzením, takže byste taková fakta přirozeně brali jako pravdu.

Jednoduše řečeno, jde o vymyšlená prohlášení uměle inteligentního chatbota. Zde je příklad:

Na další dotaz se ChatGPT objevil s tímto:

Halucinace AI v počítačovém vidění

Podívejme se na další oblast AI, která může zažít halucinace AI: Počítačové vidění. Níže uvedený kvíz ukazuje sestřih 4x4 se dvěma entitami, které vypadají tak podobně. Obrázky jsou mixem BBQ bramborových lupínků a listů.

Úkolem je vybrat bramborové lupínky, aniž byste v montáži narazili na listy. Tento obrázek může pro počítač vypadat složitě a nemusí být schopen rozlišit mezi BBQ bramborovými lupínky a listy.

Zde je další sestřih s kombinací obrázků pudla a vepřové nitě. Počítač by s největší pravděpodobností nebyl schopen mezi nimi rozlišit, a proto by obrázky směšoval.

Proč dochází k halucinaci AI?

Halucinace umělé inteligence se může objevit kvůli nepříznivým příkladům – vstupním datům, která oklamou aplikaci umělé inteligence, aby je nesprávně klasifikovala. Například při trénování aplikací AI vývojáři používají data (obrázek, text nebo jiné); pokud jsou data změněna nebo zkreslena, aplikace interpretuje vstup odlišně a poskytuje nesprávný výstup.

Na rozdíl od toho může člověk i přes zkreslení data stále přesně rozpoznat a identifikovat. Můžeme to označit jako zdravý rozum – lidskou vlastnost AI ještě nemá. Podívejte se, jak je umělá inteligence oklamána příklady nepřátel v tomto videu:

Pokud jde o velké jazykové modely, jako je např ChatGPT a jeho alternativy, mohou vznikat halucinace z nepřesného dekódování z transformátoru (model strojového učení).

V AI je transformátor modelem hlubokého učení, který využívá sebepozornost (sémantické vztahy mezi slovy v věta) k vytvoření textu podobného tomu, co by člověk napsal pomocí kodéru-dekodéru (vstup-výstup) sekvence.

Transformátory, polořízený model strojového učení, tedy mohou generovat nový text (výstup) z velkého korpusu textových dat používaných při jeho trénování (vstupu). Dělá to tak, že předpovídá další slovo v řadě na základě předchozích slov.

Pokud jde o halucinace, pokud by byl jazykový model trénován na nedostatečných a nepřesných datech a zdrojích, očekává se, že výstup by byl vymyšlený a nepřesný. Jazykový model může generovat příběh nebo vyprávění bez logických nesrovnalostí nebo nejasných souvislostí.

V níže uvedeném příkladu byl ChatGPT požádán, aby dal slovo podobné „revolt“ a začíná na „b“. Zde je jeho odpověď:

Při dalším zkoumání stále dával špatné odpovědi s vysokou mírou jistoty.

Proč tedy ChatGPT nedokáže poskytnout přesnou odpověď na tyto výzvy?

Může se stát, že jazykový model není vybaven ke zvládání poměrně složitých výzev, jako jsou tyto nebo ono nemůže přesně interpretovat výzvu, ignoruje výzvu při zadání podobného slova s ​​konkrétním abeceda.

Jak poznáte halucinace umělé inteligence?

Nyní je zřejmé, že aplikace umělé inteligence mají potenciál halucinovat – generovat reakce jinak na základě očekávaného výstupu (skutečnost nebo pravda) bez jakéhokoli zlého úmyslu. A rozpoznání a rozpoznání halucinací AI je na uživatelích takových aplikací.

Zde je několik způsobů, jak rozpoznat halucinace AI při používání běžných aplikací AI:

1. Velké modely jazykového zpracování

I když je to vzácné, pokud si všimnete gramatických chyb v obsahu vytvořeném velkým modelem zpracování, jako je ChatGPT, mělo by to pozvednout obočí a vyvolat podezření na halucinaci. Podobně, když textový obsah nezní logicky, nekoreluje s daným kontextem nebo neodpovídá vstupním datům, měli byste mít podezření na halucinace.

Použití lidského úsudku nebo zdravého rozumu může pomoci odhalit halucinace, protože lidé mohou snadno identifikovat, kdy text nedává smysl nebo se neřídí realitou.

2. Počítačové vidění

Počítačové vidění jako odvětví umělé inteligence, strojového učení a informatiky umožňuje počítačům rozpoznávat a zpracovávat obrazy jako lidské oči. Použitím konvoluční neuronové sítě, spoléhají na neuvěřitelné množství vizuálních dat používaných při jejich tréninku.

Odchylka od vzorců vizuálních dat používaných při tréninku bude mít za následek halucinace. Pokud například počítač nebyl trénován s obrázky tenisového míčku, mohl by jej identifikovat jako zelený oranžový. Nebo pokud počítač rozpozná koně vedle lidské sochy jako koně vedle skutečného člověka, pak došlo k halucinaci AI.

Chcete-li tedy zaznamenat halucinaci počítačového vidění, porovnejte generovaný výstup s tím, co se očekává od [normálního] člověka.

3. Samořídící auta

Kredit obrázku: Brod

Díky umělé inteligenci postupně na automobilový trh pronikají samořídící auta. Průkopníci jako Tesla Autopilot a Ford's BlueCruise bojují za scénu samořídících aut. Můžete se odhlásit jak a co vidí autopilot Tesla abychom trochu porozuměli tomu, jak umělá inteligence pohání samořídící auta.

Pokud vlastníte jedno z takových aut, chtěli byste vědět, jestli vaše auto s umělou inteligencí nemá halucinace. Jedním z příznaků bude, pokud se zdá, že se vaše vozidlo během jízdy odchyluje od běžných vzorců chování. Pokud například vozidlo bez zjevného důvodu náhle zabrzdí nebo vybočí, vaše vozidlo s umělou inteligencí může mít halucinace.

Systémy AI mohou také halucinovat

Lidé a modely umělé inteligence prožívají halucinace odlišně. Pokud jde o AI, halucinace odkazují na chybné výstupy, které jsou na míle vzdálené od reality nebo nedávají smysl v kontextu dané výzvy. Například AI chatbot může poskytnout gramaticky nebo logicky nesprávnou odpověď nebo nesprávně identifikovat objekt kvůli hluku nebo jiným strukturálním faktorům.

Halucinace umělé inteligence nevyplývají z vědomé nebo podvědomé mysli, jak byste pozorovali u lidí. Spíše vyplývá z nedostatečnosti nebo nedostatečnosti dat používaných při trénování a programování systému AI.