Připojili jste se k seznamovací aplikaci? Nebo hledáš lásku jinde? Podvodníci vás mohou využít pomocí umělé inteligence. Zde je návod.

Online seznamovací aplikace byly vždy semeništěm romantických podvodů. Kyberzločinci kradou peníze, osobní informace a explicitní fotografie. Jejich falešné profily najdete všude.

A s rozšiřováním generativních nástrojů umělé inteligence je provádění romantických podvodů ještě jednodušší. Snižují bariéry vstupu. Zde je sedm běžných způsobů, jak podvodníci s romantikou využívají umělou inteligenci – a jak se můžete chránit.

1. Hromadné odesílání e-mailů generovaných umělou inteligencí

Spamové e-maily je stále těžší filtrovat. Romantičtí podvodníci zneužívají generativní nástroje AI k psaní zavádějících, přesvědčivých zpráv a vytváření více účtů během několika hodin. Téměř okamžitě se přibližují ke stovkám.

Spamové zprávy generované umělou inteligencí uvidíte na různých platformách, nejen ve vaší e-mailové schránce. Vezměte si podvod s nesprávným číslem jako příklad. Podvodníci hromadně posílají roztomilá selfíčka nebo sugestivní fotky. A pokud někdo odpoví, bude to hrát jako nevinná chyba.

instagram viewer

Jakmile je někdo na lince, bude převeden na jinou platformu pro zasílání zpráv (např. WhatsApp nebo Telegram). Většina programů běží týdny. Podvodníci si postupně budují důvěru, než požádají cíle, aby se připojily k investičním schématům, nesly své účty nebo zaplatily za cesty.

Zůstaňte v bezpečí tím, že se zcela vyhnete spamovým zprávám. Omezte své styky s cizími lidmi bez ohledu na to, jak vypadají nebo co nabízejí.

2. Rychlá reakce na další konverzace

Boti se šíří online jako lavina. Imperva uvádí, že špatní roboti tvořili 30 procent automatizovaného webového provozu v roce 2022. Jeden najdete během několika sekund po procházení zápasů Tinder.

Jedním z důvodů tohoto náhlého nárůstu počtu robotů je šíření generativních nástrojů umělé inteligence. Ve velkém chrlí roboty. Stačí zadat správnou výzvu a váš nástroj představí kompletní, efektivní úryvek kódu pro generování botů.

Vědět, kdy mluvíte s robotem. Přestože umělá inteligence používá přirozený, konverzační tón, její dialogy stále zní monotónně a neohrabaně. Koneckonců, chatboti pouze následují vzorce. Může produkovat podobné odpovědi na různé otázky, prohlášení a požadavky.

3. Vytváření více identit z ukradených obrázků

2 obrázky

Generátory umění AI manipulovat s obrázky. Vezměte si níže uvedenou ukázku jako příklad. Naplnili jsme Playground AI upřímnou fotografií slavného zpěváka – platforma vytvořila tři varianty během několika sekund.

Ano, mají nedostatky. Všimněte si však, že jsme použili bezplatný nástroj se zastaralým modelem převodu textu na obrázek. Podvodníci produkují realističtější výstup pomocí sofistikovaných iterací. Mohou rychle vykreslit stovky přizpůsobených, zmanipulovaných fotografií z několika vzorků.

Obrázky umělé inteligence je bohužel těžké odhalit. Nejlepší by bylo udělat a zpětné vyhledávání obrázků a prosít relevantní výsledky.

4. Vytváření klamavě autenticky vypadajících profilů

Boti se k obětem hromadně přibližují. Takže podvodníci s romantikou, kteří preferují cílené schéma, vytvoří pouze jeden nebo dva autenticky vypadající profily. Použijí AI, aby vypadali přesvědčivě. Generativní nástroje umělé inteligence mohou vytvářet autenticky vypadající popisy, které znějí přirozeně a opravdově; špatná gramatika už nebude problém.

Zde je ChatGPT, který navrhuje nějaké koníčky, které byste měli uvést na seznamovací profil.

A tady je ChatGPT, který píše celou biografii pro váš seznamovací profil.

Protože tento proces zabere tolik času, vyžaduje také větší návratnost. Takže podvodníci mají tendenci žádat více. Jakmile získají vaši důvěru, požádají o pomoc s různými „problémy“, jako jsou účty za nemocnice, platby půjček nebo školné. Někteří budou dokonce tvrdit, že vás navštíví, když jim vezmete lístek na rameno.

Tito kyberzločinci jsou zruční v manipulaci s oběťmi. Nejlepší taktikou je vyhýbat se jim hned od začátku. Nenechte je nic říkat. Jinak byste mohli postupně propadnout jejich klamání a metodám gaslightingu.

5. Využívání technologie Deepfake k sexuálnímu vydírání

Umělá inteligence vylepšovala nástroje deepfake znepokojivě rychle. Nové technologie snižují drobné nedokonalosti v deepfake videích, jako je nepřirozené blikání, nerovnoměrné odstíny pleti, zkreslený zvuk a nekonzistentní prvky.

Bohužel tyto chyby také slouží jako červené vlajky. Pokud uživatelům umožníte je odstranit, je obtížnější rozlišovat mezi legitimními a hluboce falešnými videi.

Bloomberg ukazuje, jak kdokoli se základními technickými znalostmi může manipulovat se svým hlasem a vizuálními prvky, aby replikoval ostatní.

Kromě vytváření realistických seznamovacích profilů podvodníci využívají deepfake nástroje k sexuálnímu vydírání. Spojují veřejné fotografie a videa s pornografií. Po manipulaci s nezákonným obsahem budou vydírat oběti a požadovat peníze, osobní údaje nebo sexuální laskavosti.

Neustupujte, pokud se stanete cílem. Pokud se ocitnete v této situaci, zavolejte na číslo 1-800-CALL-FBI, pošlete tip FBI nebo navštivte místní pobočku FBI.

6. Integrace modelů umělé inteligence se systémy hackování hrubou silou

Přestože jazykové modely s otevřeným zdrojovým kódem podporují některá vylepšení AI, jsou také náchylné ke zneužití. Zločinci využijí čehokoli. Nemůžete očekávat, že budou ignorovat algoritmus za vysoce sofistikovanými jazykovými modely, jako je Lama a OpenAssistant.

V romantických podvodech hackeři často integrují jazykové modely s prolomením hesel. Možnosti NLP a strojového učení umělé inteligence umožňují systémům hackingu hrubou silou vytvářet kombinace hesel rychle a efektivně. Mohli by dokonce činit informované předpovědi, pokud by jim byly poskytnuty dostatečné souvislosti.

Nemáte žádnou kontrolu nad tím, co podvodníci dělají. Chcete-li chránit své účty, ujistěte se vytvořit skutečně bezpečné heslo obsahující speciální znaky, alfanumerické kombinace a více než 14 znaků.

7. Napodobování skutečných lidí pomocí klonování hlasu

Hlasové generátory AI začínaly jako skvělá hračka. Uživatelé by proměnili ukázkové skladby svých oblíbených interpretů na cover verze nebo dokonce nové písně. Jako příklad si vezměte Heart on My Sleeve. Uživatel TikTok Ghostwriter977 vytvořili superrealistickou píseň napodobující Drakea a The Weeknda, i když ji nenazpíval žádný umělec.

Navzdory vtipům a memům kolem toho, syntéza řeči je velmi nebezpečná. Umožňuje zločincům provádět sofistikované útoky. Například podvodníci s romantikou využívají nástroje pro klonování hlasu k volání cílů a zanechávají klamavé nahrávky. Oběti, které neznají syntézu řeči, si nevšimnou ničeho neobvyklého.

Chraňte se před podvody s klonováním hlasu AI studiem toho, jak znějí syntetizované výstupy. Prozkoumejte tyto generátory. Vytvářejí pouze téměř identické klony – stále najdete nějaké nedokonalosti a nesrovnalosti.

Chraňte se před podvodníky na seznamování s umělou inteligencí

Jak generativní nástroje umělé inteligence postupují, podvodníci s romantikou vyvinou nové způsoby, jak je využít. Vývojáři nemohou tyto zločince zastavit. Převezměte proaktivní roli v boji proti kybernetické kriminalitě namísto pouhého důvěry, že bezpečnostní omezení fungují. Stále můžete používat seznamovací aplikace. Ale ujistěte se, že znáte osobu na druhé straně obrazovky, než se s ní zapojíte.

A dejte si pozor na další schémata s podporou AI. Kromě romantických podvodů používají zločinci umělou inteligenci ke krádežím identity, kybernetickému vydírání, vydírání, útokům ransomwaru a hackování hrubou silou. Naučte se bojovat i s těmito hrozbami.