Fake news, deepfakes, zavádějící obrázky: to vše lze vytvořit pomocí umělé inteligence. Zde je návod, jak AI znamená, že se šíří dezinformace.
Umělá inteligence (AI) nyní hraje roli v různých aspektech našeho života. Konkrétně se výrazně rozrostly generativní nástroje AI, jako je ChatGPT a další. To znamená, že v budoucnu bude množství obsahu generovaného umělou inteligencí.
Generativní AI však také přináší riziko dezinformací generovaných AI. Jeho vlastnosti usnadňují oportunistickým jedincům šíření nepravdivých informací. Pojďme se tedy podívat, jak se generativní AI využívá k dezinformacím.
Potenciální rizika generativní umělé inteligence pro šíření dezinformací
Generativní umělá inteligence představuje pro lidi mnoho hrozeb, jako je odebrání pracovních míst, větší dohled a kybernetické útoky. A bezpečnostní problémy s AI se ještě zhorší. Ale je tu další starost: lidé to mohou využít k šíření lží. Podvodníci mohou využívat generativní umělou inteligenci ke sdílení falešných zpráv prostřednictvím vizuálního, zvukového nebo textového obsahu.
Falešné zprávy lze rozdělit do tří typů:
- Dezinformace: Nezamýšlené nesprávné nebo nepravdivé informace.
- Dezinformace: Záměrné použití manipulativních nebo klamavých informací.
- Špatné informace: Zavádějící zprávy nebo přehnaná verze pravdy.
Když v kombinaci s technologií deepfakegenerativní nástroje umělé inteligence mohou vytvořit obsah, který vypadá a zní skutečně, jako jsou obrázky, videa, zvukové klipy a dokumenty. Existuje mnoho možností pro vytváření falešného obsahu, takže vědět jak se chránit před deepfake videi je důležité.
Šíření falešných zpráv mohou vytvářet obsah ve velkém množství, což usnadňuje jeho šíření mezi masy prostřednictvím sociálních médií. Cílené dezinformace mohou být použity k ovlivnění politických kampaní, které mohou mít dopad na volby. Kromě toho používání nástrojů pro generování textu a obrázků pomocí umělé inteligence vyvolává obavy ohledně zákonů o autorských právech, jak uvádí výzkumná služba Kongresu: určení vlastnictví obsahu generovaného těmito nástroji se stává náročným.
Jak bude zákon řešit šíření falešných zpráv prostřednictvím generativní umělé inteligence? Kdo ponese odpovědnost za šíření nepravdivých informací – uživatelé, vývojáři nebo samotné nástroje?
4 způsoby, jak lze generativní umělou inteligenci využít k šíření dezinformací
Aby zůstali online v bezpečí, každý musí chápat rizika generativní umělé inteligence při šíření dezinformací, protože přichází v mnoha různých formách. Zde je několik způsobů, jak ji lze použít k manipulaci s lidmi.
1. Generování falešného obsahu online
Vytváření falešného obsahu pomocí generativní umělé inteligence je běžnou strategií těch, kdo šíří falešné zprávy. K výrobě různých typů obsahu využívají oblíbené generativní nástroje umělé inteligence jako ChatGPT, DALL-E, Bard, Midjourney a další. Například, ChatGPT může tvůrcům obsahu pomoci mnoha způsoby. Může však také generovat příspěvky na sociálních sítích nebo zpravodajské články, které mohou lidi klamat.
Abych to dokázal, vyzval jsem ChatGPT, aby napsal vymyšlený článek o zatčení amerického prezidenta Joea Bidena na základě obvinění z korupce. Požádali jsme také, aby obsahovala prohlášení příslušných úřadů, aby to vypadalo věrohodněji.
Zde je fiktivní článek, se kterým přišel ChatGPT:
Výstup byl překvapivě velmi přesvědčivý. Zahrnoval jména a prohlášení autoritativních osobností, aby byl článek přesvědčivější. To ukazuje, jak kdokoli může použít takové nástroje ke generování falešných zpráv a snadno je šířit online.
2. Používání chatbotů k ovlivňování názorů lidí
Chatboti, kteří se spoléhají na generativní modely umělé inteligence, mohou využívat různé taktiky k ovlivnění názorů lidí, včetně:
- Emocionální manipulace: Umělá inteligence může používat modely emoční inteligence k využívání emočních spouštěčů a předsudků k utváření vašich perspektiv.
- Echo komory a konfirmační zkreslení: Chatboti mohou posílit stávající přesvědčení tím, že vytvoří echo komory, které ověří vaše předsudky. Pokud již zastáváte určitý názor, umělá inteligence ho může posílit předkládáním informací, které jsou v souladu s vašimi názory.
- Sociální důkaz a efekt rozjetého vlaku: Umělá inteligence může manipulovat s veřejným sentimentem vytvářením sociálních důkazů. To může mít významné důsledky, protože to může vést jednotlivce k tomu, aby se přizpůsobili populárním názorům nebo následovali dav.
- Cílená personalizace: Chatboti mají přístup k obrovskému množství dat, která mohou shromáždit za účelem vytvoření personalizovaných profilů. To jim umožňuje přizpůsobit obsah podle vašich preferencí. Prostřednictvím cílené personalizace dokáže umělá inteligence jednotlivce přesvědčit nebo dále posílit jejich názory.
Všechny tyto příklady ilustrují, jak lze chatboty využít k klamání lidí.
3. Vytváření AI DeepFakes
Někdo může použít deepfakes k vytvoření falešných videí jednotlivce, který říká nebo dělá věci, které nikdy neudělal. Mohou takové nástroje používat pro sociální inženýrství nebo vedení pomlouvačných kampaní proti ostatním. Navíc v dnešní kultuře memů mohou deepfakes sloužit jako nástroje pro kyberšikanu na sociálních sítích.
Kromě toho mohou političtí protivníci používat hluboce falešný zvuk a videa, aby pošpinili pověst svých oponentů a manipulovali s veřejným sentimentem pomocí AI. Tak Deepfakes generované umělou inteligencí představují v budoucnu četné hrozby. Podle roku 2023 Zpráva agentury ReutersVzestup technologie AI by mohl ovlivnit americké volby v roce 2024. Zpráva zdůrazňuje dostupnost nástrojů jako Midjourney a DALL-E, které mohou snadno vytvářet umělý obsah a ovlivňovat kolektivní názory lidí.
Rozhodující je tedy umět identifikovat videa vytvořená pomocí deepfakes a odlišit je od originálů.
4. Klonování lidských hlasů
Generativní AI spolu s technologií deepfake umožňuje manipulaci s něčí řečí. Technologie Deepfake se rychle rozvíjí a nabízí řadu nástrojů, které dokážou replikovat hlas kohokoli. To umožňuje zlomyslným jedincům vydávat se za ostatní a klamat nic netušící jedince. Jedním takovým příkladem je použití deepfake hudby.
Možná jste narazili na nástroje jako Připomínat AI, Speechify, Napodobit těa další, které dokážou napodobit hlasy celebrit. I když tyto zvukové nástroje AI mohou být zábavné, představují značná rizika. Podvodníci mohou využívat techniky klonování hlasu pro různá podvodná schémata, což vede k finančním ztrátám.
Podvodníci mohou používat hluboce falešné hlasy, aby se vydávali za vaše blízké a volali vám a předstírali, že jsou v nouzi. Se syntetickým zvukem, který zní přesvědčivě, vás mohou vyzvat, abyste naléhavě poslali peníze, což vás vede k tomu, že se stanete obětí jejich podvodů. Incident ohlásil Washington Post v březnu 2023 je příkladem tohoto problému: podvodníci používali hluboké falešné hlasy, aby přesvědčili lidi, že jejich vnuci jsou ve vězení a potřebují peníze...
Jak zjistit dezinformace šířené umělou inteligencí
Boj proti šíření dezinformací podporovaných umělou inteligencí je v dnešním světě naléhavým problémem. Jak tedy můžete odhalit nepravdivé informace, které vytvořila AI?
- Přistupujte k online obsahu skepticky. Pokud narazíte na něco, co se zdá manipulativní nebo neuvěřitelné, ověřte si to křížovou kontrolou.
- Než důvěřujete zpravodajskému článku nebo příspěvku na sociálních sítích, ujistěte se, že pochází z důvěryhodného zdroje.
- Dávejte si pozor na indikátory hlubokých fake, jako je nepřirozené mrkání nebo pohyby obličeje, špatná kvalita zvuku, zkreslený nebo rozmazaný obraz a nedostatek skutečných emocí v řeči.
- K ověření správnosti informací používejte webové stránky pro ověřování faktů.
Pomocí těchto kroků se můžete identifikovat a chránit se před dezinformacemi řízenými umělou inteligencí.
Pozor na dezinformace šířené umělou inteligencí
Generativní software sehrál klíčovou roli v rozvoji AI. Přesto mohou být také významným zdrojem dezinformací ve společnosti. Tyto cenově dostupné nástroje umožnily komukoli vytvářet různé typy obsahu pomocí sofistikovaných modelů umělé inteligence; jejich schopnost generovat obsah ve velkém množství a začleňovat deepfakes je činí ještě nebezpečnějšími.
Je důležité, abyste si byli vědomi výzev dezinformací v éře AI. Pochopení toho, jak lze AI využít k šíření falešných zpráv, je prvním krokem k ochraně před dezinformacemi.