Chatboti s umělou inteligencí mohou mít halucinace a dávat sebevědomě nesprávné odpovědi – čehož mohou hackeři využít. Zde je návod, jak hackeři vyzbrojují halucinace.
Velké jazykové modely AI jsou nedokonalé a někdy generují falešné informace. Tyto případy, nazývané halucinace, mohou představovat kybernetickou hrozbu pro podniky a jednotlivé nadšence AI.
Naštěstí můžete zvýšit obranu proti halucinacím umělé inteligence pomocí zvýšeného povědomí a zdravého odhadu.
Proč AI halucinuje?
Neexistuje shoda v tom, proč modely AI halucinují, i když existuje několik pravděpodobných odhadů.
Umělá inteligence je trénována z masivních datových souborů, které často obsahují chyby, jako jsou myšlenkové mezery, odchylky ve význačnosti obsahu nebo škodlivé předsudky. Jakékoli školení z těchto neúplných nebo neadekvátních datových souborů by mohlo být kořenem halucinací, i když pozdější iterace datového souboru získaly léčbu od vědců zabývajících se daty.
V průběhu času mohou datoví vědci zpřesňovat informace a vkládat další znalosti, aby zaplnili volná místa a minimalizovali potenciál halucinací. Dozorci by mohli údaje nesprávně označit. Programovací kód může obsahovat chyby. Oprava těchto položek je zásadní, protože modely umělé inteligence postupují na základě algoritmů strojového učení.
Tyto algoritmy používají data k určování. Rozšířením je neuronová síť AI, která vytváří nová rozhodnutí od zkušeností se strojovým učením až po připomínají originalitu lidských myslí přesněji. Tyto sítě obsahují transformátory, které analyzují vztahy mezi vzdálenými datovými body. Když se transformátory pokazí, mohou se objevit halucinace.
Jak AI halucinace poskytují příležitosti pro hackery
Bohužel není všeobecně známo, že AI halucinuje, a AI bude znít sebejistě, i když je úplně špatně. To vše přispívá k tomu, že uživatelé jsou spokojenější a důvěřují AI a aktéři hrozeb spoléhají na toto chování uživatelů, aby je přiměli ke stažení nebo spuštění útoků.
Model umělé inteligence může například halucinovat falešnou knihovnu kódu a doporučit uživatelům, aby si tuto knihovnu stáhli. Je pravděpodobné, že model bude i nadále doporučovat stejnou halucinovanou knihovnu mnoha uživatelům, kteří se ptají na podobnou otázku. Pokud hackeři odhalí tuto halucinaci, mohou vytvořit skutečnou verzi smyšlené knihovny – ale naplněnou nebezpečným kódem a malwarem. Nyní, když AI nadále doporučuje knihovnu kódů, nevědomí uživatelé si stáhnou kód hackerů.
Přenos škodlivého kódu a programů pomocí halucinací umělé inteligence je dalším nepřekvapivým krokem pro aktéry hrozeb. Hackeři nutně nevytvářejí bezpočet nových kybernetických hrozeb – pouze hledají nové způsoby, jak je bez podezírání předat. Halucinace umělé inteligence se živí stejnou lidskou naivitou, klikání na e-mailové odkazy závisí na (což je důvod, proč byste měli k ověření adres URL použijte nástroje pro kontrolu odkazů).
Hackeři by to také mohli posunout na další úroveň. Pokud hledáte pomoc s kódováním a stahujete falešný škodlivý kód, aktér hrozby by také mohl kód skutečně zprovoznit, přičemž na pozadí běží škodlivý program. To, že to funguje tak, jak očekáváte, neznamená, že to není nebezpečné.
Nedostatek vzdělání vás může povzbudit ke stažení doporučení vygenerovaných AI kvůli chování autopilota online. Každý sektor je pod kulturním tlakem, aby přijal AI do svých obchodních praktik. Bezpočet organizací a odvětví vzdálených od technologií si hraje s nástroji AI s malými zkušenostmi a ještě řídší kyberbezpečností, jen aby zůstaly konkurenceschopné.
Jak zůstat v bezpečí před halucinacemi s umělou zbraní
Pokrok je na obzoru. Vytváření malwaru pomocí generativní umělé inteligence bylo snadné, než společnosti upravily datové sady a podmínky, aby zabránily neetickým generacím. Když znáte společenské, technické a osobní slabosti, které můžete mít proti nebezpečným halucinacím umělé inteligence, jaké jsou některé způsoby, jak zůstat v bezpečí?
Kdokoli v oboru může pracovat na zdokonalení technologie neuronových sítí a ověřování knihoven. Než odpovědi zasáhnou koncové uživatele, musí existovat kontroly a rovnováhy. Navzdory tomu, že se jedná o nezbytný pokrok v oboru, musíte také hrát roli při ochraně sebe a ostatních před generativními hrozbami AI.
Průměrní uživatelé může trénovat odhalování halucinací umělé inteligence s těmito strategiemi:
- Hledání pravopisných a gramatických chyb.
- Vidíte, kdy se kontext dotazu neshoduje s kontextem odpovědi.
- Uznává, že obrazy založené na počítačovém vidění neodpovídají tomu, jak by tento koncept viděly lidské oči.
Při stahování obsahu z internetu buďte vždy opatrní, i když to AI doporučuje. Pokud AI doporučuje stáhnout kód, nedělejte to slepě; zkontrolujte všechny recenze, abyste se ujistili, že kód je legitimní, a zjistěte, zda můžete najít informace o tvůrci.
Nejlepší odolností proti útokům založeným na AI halucinacích je vzdělání. Mluvit o svých zkušenostech a číst, jak jiní vyvolali škodlivé halucinace, ať už náhodou nebo úmyslným testováním, je neocenitelné při navigaci AI v budoucnosti.
Posílení AI kybernetické bezpečnosti
Musíte být opatrní, co požadujete, když mluvíte s AI. Omezte potenciál nebezpečných výsledků tím, že budete co nejkonkrétnější a budete zpochybňovat vše, co se objeví na obrazovce. Testujte kód v bezpečném prostředí a ověřte si další zdánlivě důvěryhodné informace. Kromě toho můžete spolupracovat s ostatními, diskutovat o svých zkušenostech a zjednodušovat žargon o AI halucinace a hrozby kybernetické bezpečnosti mohou pomoci masám být ostražitější a odolnější vůči hackeři.