Umělá inteligence (AI) má potenciál změnit samotnou povahu naší společnosti. A pokud nástroje umělé inteligence, které máme aktuálně k dispozici, naznačují, co přijde, máme se na co těšit.
Také se musíme mít na co pozor. Konkrétně se jedná o zbrojení AI kyberzločinci a dalšími aktéry ohrožení. Nejde o teoretický problém a dokonce ani generátory obrázků AI nejsou imunní vůči zneužití.
Co jsou generátory obrázků AI? Jak fungují?
Pokud jste někdy používali generátor obrázků AI, máte docela dobrou představu, o čem jsou. I když jste žádný nikdy nepoužili, s největší pravděpodobností jste na sociálních sítích i jinde narazili na obrázky generované umělou inteligencí. Software, který je dnes populární, funguje na velmi jednoduchém principu: uživatel zadá text a AI na základě tohoto textu vygeneruje obrázek.
To, co se děje pod kapotou, je mnohem složitější. Umělá inteligence se v posledních letech výrazně zlepšila a většina z nich
generátory textu na obrázek v dnešní době jsou tzv. difúzní modely. To znamená, že jsou po dlouhou dobu „cvičeni“ na obrovském množství textů a obrázků, díky čemuž jsou jejich výtvory tak působivé a úžasně realistické.Co dělá tyto nástroje umělé inteligence ještě působivějšími, je skutečnost, že nejen upravují existující obrázky nebo spojují tisíce obrázků do jednoho, ale také vytvářejí nové, originální obrázky od začátku. Čím více lidí používá tyto generátory textu na obrázek, tím více informací dostávají a tím lepší jsou jejich výtvory.
Některé z nejznámějších Generátory obrázků AI jsou Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor a Craiyon. Nové se objevují vlevo a vpravo a techničtí giganti – včetně Googlu – vydávají své vlastní, takže můžeme jen spekulovat, co přinese budoucnost.
4 způsoby, jak hrozit herci, vyzbrojují generátory obrázků AI
Stejně jako téměř všechny technologie, i generátory obrázků AI mohou být zneužity zlovolnými herci. Ve skutečnosti se již používají pro všechny druhy hanebných účelů. Ale jaký typ podvodů a kybernetických útoků může zločinec provádět s pomocí generátorů obrázků AI?
1. Sociální inženýrství
Jedna zjevná věc, kterou by aktéři hrozeb mohli dělat s generátory obrázků AI, je zapojit se do sociálního inženýrství; například vytvářet falešné profily na sociálních sítích. Některé z těchto programů mohou vytvářet neuvěřitelně realistické obrázky, které vypadají stejně jako skutečné fotografie skutečných lidí, a podvodník by mohl tyto falešné profily na sociálních sítích použít k lovu sumců.
Na rozdíl od fotografií skutečných lidí nelze ty vytvořené umělou inteligencí objevit pomocí zpětného vyhledávání obrázků a kyberzločinec nemusí pracovat s omezený počet fotografií, které ovládnou jejich cíl – pomocí umělé inteligence mohou generovat tolik, kolik chtějí, a vytvořit z nich přesvědčivou online identitu poškrábat.
Existují však příklady ze skutečného života, kdy aktéři hrozeb používají generátory obrázků AI k podvádění lidí. V dubnu 2022 TechTalks blogger Ben Dickinson obdržel e-mail od právní firmy, který tvrdil, že použil obrázek bez povolení. Právníci zaslali e-mailem oznámení o porušení autorských práv podle zákona DMCA, ve kterém Dickinsonovi sdělili, že se potřebuje propojit zpět s jejich klientem nebo odstranit obrázek.
Dickinson prohledal právní firmu a našel oficiální web. Všechno to vypadalo naprosto legitimně; na stránce byly dokonce fotografie 18 právníků, doplněné jejich životopisy a pověřeními. Ale nic z toho nebylo skutečné. Všechny fotografie vygenerovala AI a byla rozeslána oznámení o údajném porušení autorských práv někým, kdo se snaží vymámit zpětné odkazy od nic netušících bloggerů jako součást neetického, černého čepice SEO (optimalizace pro vyhledávače) strategie.
2. Charitativní podvody
Když v únoru 2023 zasáhla Turecko a Sýrii ničivá zemětřesení, miliony lidí na celém světě vyjádřily svou solidaritu s oběťmi darováním oblečení, jídla a peněz.
Podle zprávy z BBC, podvodníci toho využili a pomocí AI vytvořili realistické obrázky a požádali o dary. Jeden podvodník ukázal obrázky ruin vytvořené umělou inteligencí na TikTok Live a požádal své diváky o dary. Další zveřejnil obrázek řeckého hasiče, který zachraňuje zraněné dítě z ruin, vytvořený umělou inteligencí, a požádal své následovníky o dary v bitcoinech.
Lze si jen představit, jaký typ charitativních podvodů budou zločinci provozovat s pomocí AI v budoucnu, ale lze s jistotou předpokládat, že ve zneužívání tohoto softwaru budou jen lepší.
3. Deepfakes a dezinformace
Vlády, aktivistické skupiny a think-tanky před tím již dlouho varují nebezpečí deepfakes. Generátory obrázků AI přidávají k tomuto problému další součást, vzhledem k tomu, jak realistické jsou jejich výtvory. Ve Spojeném království dokonce existuje komediální show s názvem Deep Fake Neighbor Wars, která nachází humor v nepravděpodobném párování celebrit. Co by zabránilo dezinformačnímu agentovi vytvořit falešný obrázek a propagovat ho na sociálních sítích pomocí robotů?
To může mít důsledky v reálném životě, jako se to téměř stalo v březnu 2022, kdy se na internetu objevilo falešné video zobrazující ukrajinského prezidenta Volodymyra Zelenského, jak říká Ukrajincům, aby se vzdali. NPR. Ale to je jen jeden příklad, protože možnosti jsou téměř nekonečné a existuje nespočet způsobů Aktér hrozby by s pomocí mohl poškodit něčí pověst, propagovat falešný příběh nebo šířit falešné zprávy AI.
4. Reklamní podvod
TrendMicro výzkumníci v roce 2022 zjistili, že podvodníci využívají obsah generovaný umělou inteligencí k vytváření zavádějících reklam a propagaci stinných produktů. Vytvořili obrázky, které naznačovaly, že populární celebrity používají určité produkty, a na základě těchto obrázků spustili reklamní kampaně.
Například jedna reklama na „možnost finančního poradenství“ představovala miliardáře Elona Muska, zakladatele a generálního ředitele společnosti Tesla. Musk samozřejmě daný produkt nikdy nepodporoval, ale díky záběrům vytvořeným umělou inteligencí to tak vypadalo a pravděpodobně lákalo nic netušící diváky, aby klikli na reklamy.
Umělá inteligence a kybernetická bezpečnost: složitý problém, který musíme řešit
V budoucnu budou pravděpodobně muset vládní regulátoři a odborníci na kybernetickou bezpečnost spolupracovat na řešení nově vznikající hrozby kybernetické kriminality založené na umělé inteligenci. Jak ale můžeme regulovat umělou inteligenci a chránit obyčejné lidi, aniž bychom potlačovali inovace a omezovali digitální svobody? Tato otázka bude vyvstávat v nadcházejících letech.
Dokud nebude odpověď, udělejte, co můžete, abyste se ochránili: pečlivě prověřujte všechny informace, které vidíte online, vyhýbejte se jim stinné webové stránky, používejte bezpečný software, udržujte svá zařízení aktuální a naučte se používat umělou inteligenci výhoda.