FraudGPT je jazykový model vyladěný tak, aby pomáhal zločincům při podvodných činnostech. Přečtěte si, co to znamená chránit se před potenciálními hrozbami.
Vzestup umělé inteligence (AI) je dvousečná zbraň. Jako každá transformační technologie nabízí AI obrovský potenciál, ale také obrovská rizika. Navzdory důraznému tlaku na regulaci umělé inteligence se zdá, že aktéři hrozeb předběhli křivku.
Nový nástroj ve stylu ChatGPT, FraudGPT, se dostává do povědomí kyberzločinců a umožňuje jim automatizovat a lépe provádět velkou část jejich podvodných operací. Obětí se může stát kdokoli, proto je důležité být informován. Zde je vše, co o FraudGPT zatím víme.
Co je to FraudGPT?
FraudGPT je nástroj umělé inteligence poháněný velkým jazykovým modelem, který je zvláště vyladěný tak, aby pomáhal kyberzločincům páchat kyberzločin. Nástroj umělé inteligence založený na předplatném umožňuje aktérům hrozeb usnadnit jejich kriminální aktivity, jako je carding, phishing a vytváření malwaru.
Přestože podrobnosti o tomto nástroji zůstávají velmi omezené, výzkumníci z Netenrich, společnosti zabývající se výzkumem bezpečnosti, odhalili několik reklam na temném webu inzerující tento nástroj. Podle
výzkumná zpráva z Netenrichu, poplatky za předplatné se pohybují mezi 200 $ měsíčně až 1 700 $ ročně.Chcete-li si nástroj lépe představit, můžete si FraudGPT představit jako ChatGPT, ale pro podvod. Jak ale FraudGPT přesně funguje a jak jej využívají kyberzločinci?
Jak FraudGPT funguje?
Ve svém jádru se FraudGPT výrazně neliší od jakéhokoli nástroje, který je poháněn velkým jazykovým modelem. Jinými slovy, samotný nástroj je interaktivní rozhraní pro zločince pro přístup ke speciálnímu druhu jazykového modelu, který byl vyladěn pro páchání kybernetické trestné činnosti.
Stále to nechápete? Zde je přibližná představa, o čem mluvíme. V prvních dnech spuštění ChatGPT bylo možné chatbota s umělou inteligencí použít téměř k čemukoli, včetně pomoci kybernetickým zločincům vytvářet malware. Bylo to možné, protože základní jazykový model ChatGPT byl trénován na datovém souboru, který pravděpodobně obsahoval vzorky široké škály dat, včetně dat, která by mohla pomoci kriminálnímu podniku.
Velké jazykové modely se obvykle živí vším dobrým materiálem, jako jsou vědecké teorie, informace o zdraví a politika, k těm nepříliš dobrým, jako jsou vzorky malwarového kódu, zprávy z karetních a phishingových kampaní a další kriminální materiálů. Při práci s druhem datových sad potřebných k trénování jazykových modelů, jako je typ, který pohání ChatGPT, je téměř nevyhnutelné, že model bude obsahovat vzorky nežádoucích materiálů.
Navzdory typicky pečlivému úsilí o odstranění nežádoucích materiálů v datové sadě některé proklouznou, a obvykle jsou stále dostatečné k tomu, aby umožnily modelu generovat materiály pro usnadnění počítačová kriminalita. Proto s právem rychlé inženýrství, můžete získat nástroje jako ChatGPT, Google Bard a Bing AI, které vám pomohou psát podvodné e-maily nebo počítačový malware.
Pokud nástroje jako ChatGPT mohou pomoci kyberzločincům páchat zločiny navzdory veškerému úsilí o zajištění bezpečnosti těchto chatbotů s umělou inteligencí, nyní přemýšlejte o výkon, který by mohl přinést nástroj jako FraudGPT, protože byl speciálně vyladěn na škodlivé materiály, aby byl vhodný pro počítačová kriminalita. Je to jako zlé dvojče ChatGPT nasazené na steroidech.
Při použití tohoto nástroje by tedy zločinci mohli chatbota pouze vyzvat, jako by to dělali s ChatGPT. Mohli by ji požádat, řekněme, aby napsala phishingový e-mail pro Jane Doe, která pracuje ve společnosti ABC, nebo ji možná požádala, aby napsala malware pomocí C++ a ukradla všechny soubory PDF z počítače se systémem Windows 10. Zločinci by v podstatě jen přišli se zlou mechanizací a nechali chatbota, aby udělal těžkou práci.
Jak se můžete chránit před FraudGPT?
Přestože se jedná o nový druh nástroje, hrozba, kterou představuje FraudGPT, se zásadně neliší. Dalo by se říci, že zavádí více automatizace a efektivity do již zavedených metod provádění kybernetické kriminality.
Zločinci používající tento nástroj by, alespoň teoreticky, mohli psát přesvědčivější phishingové e-maily, lépe plánovat podvody a vytvářet účinnější malware, ale většinou by se stále spoléhali na zavedené způsoby spouštění svých škodlivých plány. V důsledku toho stále platí zavedené způsoby, jak se chránit:
- Dávejte si pozor na nevyžádané zprávy požadující informace nebo směřující ke kliknutí na odkazy. Neposkytujte informace ani neklikejte na odkazy v těchto zprávách, pokud neověříte zdroj.
- Obraťte se přímo na společnosti pomocí nezávislého, ověřeného čísla pro ověření legitimity. Nepoužívejte kontaktní údaje uvedené v podezřelých zprávách.
- Používejte silná, jedinečná hesla, která je těžké prolomit a přijmout dvoufaktorové ověřování, pokud je dostupné pro všechny účty. Nikdy nesdílejte hesla nebo kódy, které vám byly zaslány.
- Pravidelně kontrolujte výpisy z účtu, zda nevykazují podezřelou aktivitu.
- Udržujte software aktualizovaný a používejte antivirové nebo antimalwarové nástroje.
- Skartujte dokumenty obsahující osobní identifikační nebo finanční informace, když již nejsou potřeba.
Pro více informací o tom, jak se chránit, si přečtěte našeho průvodce jak se chránit v éře AI.
Zůstaňte informováni, abyste se chránili
Vznik nástrojů jako FraudGPT nám připomíná, že navzdory všemu dobrému, co pro nás umělá inteligence může udělat, stále představuje velmi účinný nástroj v rukou aktérů hrozeb.
Vzhledem k tomu, že vlády a velké firmy zabývající se umělou inteligencí vedou zběsilé závody o zavedení lepších způsobů regulace umělé inteligence, je důležité být si vědom hrozby, kterou AI v současnosti představuje, a přijmout nezbytná opatření k ochraně vy sám.