Chatboti a jim podobní se mohou zdát jako dobrá zábava, ale jsou užiteční i pro hackery. Zde je důvod, proč všichni potřebujeme znát bezpečnostní riziko AI.

AI za posledních několik let výrazně pokročila. Sofistikované jazykové modely mohou skládat romány v plné délce, kódovat základní webové stránky a analyzovat matematické problémy.

I když je generativní AI působivá, představuje také bezpečnostní rizika. Někteří lidé používají chatboty pouze k podvádění při zkouškách, ale jiní je přímo využívají k kyberzločinům. Zde je osm důvodů, proč tyto problémy budou nejen přetrvávat i přes Pokroky AI ale protože z nich také.

1. Chatboti s otevřeným zdrojem AI odhalují back-end kódy

Stále více společností AI poskytuje systémy s otevřeným zdrojovým kódem. Otevřeně sdílejí své jazykové modely, místo aby je drželi uzavřené nebo proprietární. Vezměte si jako příklad Meta. Na rozdíl od Googlu, Microsoftu a OpenAI umožňuje milionům uživatelů přístup k jeho jazykovému modelu, Lama.

I když kódy s otevřeným zdrojovým kódem mohou zlepšit umělou inteligenci, je to také riskantní.

instagram viewer
OpenAI už má problémy s ovládáním ChatGPT, jeho proprietárního chatbota, tak si představte, co by podvodníci mohli dělat se svobodným softwarem. Mají nad těmito projekty úplnou kontrolu.

I když Meta náhle stáhne svůj jazykový model, desítky dalších laboratoří umělé inteligence již zveřejnily své kódy. Podívejme se na HuggingChat. Protože se jeho vývojář HuggingFace pyšní transparentností, zobrazuje své datové sady, jazykový model a předchozí verze.

2. Jailbreak Prompts Trick LLMs

AI je ze své podstaty amorální. Nerozumí tomu, co je správné a co špatné – dokonce i pokročilé systémy se řídí pokyny pro školení, pokyny a soubory dat. Pouze rozpoznávají vzory.

Pro boj s nezákonnými aktivitami vývojáři kontrolují funkčnost a omezení nastavením omezení. Systémy umělé inteligence mají stále přístup ke škodlivým informacím. Bezpečnostní pokyny jim však brání v jejich sdílení s uživateli.

Podívejme se na ChatGPT. Ačkoli odpovídá na obecné otázky o trojských koních, nebude diskutovat o procesu jejich vývoje.

To znamená, že omezení nejsou spolehlivá. Uživatelé obcházejí limity přeformulováním výzev, používáním matoucího jazyka a sestavováním explicitně podrobných pokynů.

Přečtěte si níže Výzva k útěku z vězení ChatGPT. Přiměje ChatGPT, aby používal hrubý jazyk a dělal nepodložené předpovědi – oba činy porušují pokyny OpenAI.

Zde je ChatGPT s odvážným, ale nepravdivým prohlášením.

3. Umělá inteligence ohrožuje bezpečnost a všestrannost

Vývojáři AI upřednostňují všestrannost před bezpečností. Své zdroje utrácejí na školicí platformy, aby splnili rozmanitější škálu úkolů, a nakonec omezili omezení. Koneckonců, trh vítá funkční chatboty.

Pojďme porovnejte ChatGPT a Bing Chat, například. Zatímco Bing nabízí sofistikovanější jazykový model, který stahuje data v reálném čase, uživatelé se stále hrnou k všestrannější možnosti, ChatGPT. Přísná omezení Bingu zakazují mnoho úkolů. Alternativně je ChatGPT vybaven flexibilní platformou, která produkuje velmi odlišné výstupy v závislosti na vašich výzvách

Zde je roleplaying ChatGPT jako fiktivní postava.

A tady je Bing Chat, který odmítá hrát „nemorální“ osobu.

Open source kódy umožňují startupům zapojit se do závodu AI. Integrují je do svých aplikací namísto vytváření jazykových modelů od začátku, čímž šetří obrovské zdroje. Dokonce i nezávislí kodéři experimentují s open-source kódy.

Neproprietární software opět pomáhá rozvíjet AI, ale hromadné vydávání špatně vyškolených, ale sofistikovaných systémů přináší více škody než užitku. Podvodníci rychle zneužijí zranitelnosti. Mohou dokonce trénovat nezabezpečené nástroje AI k provádění nezákonných činností.

Navzdory těmto rizikům budou technologické společnosti nadále vydávat nestabilní beta verze platforem řízených umělou inteligencí. Závod AI odměňuje rychlost. Pravděpodobně vyřeší chyby později, než zdržují uvedení nových produktů.

5. Generativní AI má nízké bariéry vstupu

Nástroje umělé inteligence snižují překážky vstupu pro zločiny. Kyberzločinci navrhují spamové e-maily, píší malwarový kód a vytvářejí phishingové odkazy jejich zneužíváním. Nepotřebují ani technické zkušenosti. Vzhledem k tomu, že umělá inteligence již přistupuje k rozsáhlým datovým sadám, uživatelé ji pouze musí oklamat, aby produkovala škodlivé a nebezpečné informace.

OpenAI nikdy nenavrhlo ChatGPT pro nezákonné aktivity. Má proti nim dokonce směrnice. Dosud podvodníci téměř okamžitě dostali kódovací malware ChatGPT a psaní phishingových e-mailů.

OpenAI sice problém rychle vyřešila, ale zdůrazňuje důležitost regulace systému a řízení rizik. AI dospívá rychleji, než kdokoli čekal. Dokonce i tech lídři se obávají, že tato superinteligentní technologie by mohla způsobit obrovské škody ve špatných rukou.

6. AI se stále vyvíjí

AI se stále vyvíjí. Zatímco použití AI v kybernetice sahá až do roku 1940, moderní systémy strojového učení a jazykové modely se objevily teprve nedávno. Nemůžete je srovnávat s prvními implementacemi AI. Dokonce i relativně pokročilé nástroje jako Siri a Alexa blednou ve srovnání s chatboty poháněnými LLM.

I když mohou být inovativní, experimentální funkce také vytvářejí nové problémy. Významné nehody s technologiemi strojového učení sahat od chybných Google SERP po zaujaté chatboty plivající rasové nadávky.

Vývojáři samozřejmě mohou tyto problémy opravit. Jen si uvědomte, že podvodníci nebudou váhat zneužít i zdánlivě neškodné chyby – některá poškození jsou nevratná. Buďte tedy opatrní při objevování nových platforem.

7. Mnozí ještě AI nerozumí

Zatímco široká veřejnost má přístup k sofistikovaným jazykovým modelům a systémům, jen málokdo ví, jak fungují. Lidé by měli přestat zacházet s AI jako s hračkou. Stejní chatboti, kteří generují memy a odpovídají na drobnosti, také hromadně kódují viry.

Centralizovaný výcvik AI je bohužel nereálný. Globální tech lídři se zaměřují na vydávání systémů řízených umělou inteligencí, nikoli na bezplatné vzdělávací zdroje. Výsledkem je, že uživatelé získají přístup k robustním a výkonným nástrojům, kterým sotva rozumí. Veřejnost nemůže držet krok s AI závodem.

Vezměte si ChatGPT jako příklad. Kyberzločinci zneužívají její popularity tím, že klamou oběti spyware maskovaný jako aplikace ChatGPT. Žádná z těchto možností nepochází z OpenAI.

8. Black-Hat hackeři mohou získat více než White-Hat hackeři

Black-hat hackeři obvykle mají získat více než etičtí hackeři. Ano, testování per pro světové technologické lídry se dobře vyplácí, ale pouze procento profesionálů v oblasti kybernetické bezpečnosti získá tyto práce. Většina z nich pracuje na volné noze online. Platformy jako HackerOne a Bugcrowd zaplatit pár set babek za běžné chyby.

Případně podvodníci vydělávají desítky tisíc využíváním nejistot. Mohou vydírat společnosti únikem důvěrných dat nebo se dopustit krádeže ID s odcizením Osobně identifikovatelné údaje (PII).

Každá instituce, malá nebo velká, musí správně implementovat systémy umělé inteligence. Na rozdíl od všeobecného přesvědčení hackeři jdou nad rámec technologických startupů a malých a středních podniků. Některé z nejvíce historické úniky dat v posledním desetiletí zapojit Facebook, Yahoo! a dokonce i americkou vládu.

Chraňte se před bezpečnostními riziky AI

Vzhledem k těmto bodům byste se měli AI úplně vyhnout? Samozřejmě že ne. AI je ze své podstaty amorální; všechna bezpečnostní rizika pocházejí z lidí, kteří je skutečně používají. A najdou způsoby, jak využít systémy AI bez ohledu na to, jak daleko se vyvíjejí.

Namísto strachu z kybernetických hrozeb, které s sebou AI přináší, pochopte, jak jim můžete předejít. Nebojte se: jednoduchá bezpečnostní opatření jdou hodně daleko. Dávat si pozor na stinné aplikace umělé inteligence, vyhýbat se podivným hypertextovým odkazům a prohlížet obsah umělé inteligence skepticky již bojuje s několika riziky.