Technologie Deepfake může být zábavná, ale její potenciál škod je značný. Zde je to, co by mohla přinést budoucnost deepfakes.
Výmluvné známky hluboce falešného obrazu bývaly snadno rozpoznatelné, ale generativní umělá inteligence nás nutí pochybovat o všem, co nyní vidíme a slyšíme. S každým novým modelem umělé inteligence, který je uveden na trh, se náznaky falešného obrazu zmenšují a přidávají se zmatek, nyní můžete vytvářet hluboce falešná videa, hlasové klony svých blízkých a vyrábět falešné články pouhým sekundy.
Abyste se nenechali oklamat AI deepfakes, stojí za to vědět, jaký druh nebezpečí představují.
Evoluce Deepfakes
Deepfake ukazuje, že člověk dělá něco, co se v reálném životě nikdy nestalo. Je to úplně falešné. Smějeme se deepfakeům, když jsou sdíleny na internetu jako meme nebo vtip, ale jen málokomu připadá vtipné, když jsou zvyklí nás klamat.
V minulosti se deepfakes vytvářely pořízením existující fotografie a její úpravou v softwaru pro úpravu obrázků, jako je Photoshop. Ale to, co odlišuje AI deepfake, je to, že může být generováno od nuly pomocí algoritmů hlubokého učení.
The Slovník Merriam-Webster definuje deepfake jako:
Obraz nebo záznam, který byl přesvědčivě pozměněn a zmanipulován tak, aby zkreslil někoho, kdo dělá nebo říká něco, co ve skutečnosti nebylo uděláno nebo řečeno.
Ale s pokrokem v technologii AI se tato definice začíná zdát zastaralá. S využitím nástrojů AI nyní deepfakes zahrnují obrázky, text, videa a hlasové klonování. Někdy se používají všechny čtyři režimy generace AI najednou.
Protože se jedná o automatizovaný proces, jehož použití je neuvěřitelně rychlé a levné, je to dokonalý nástroj pro chrlení deepfakes rychlostí, kterou jsme nikdy předtím neviděli – a to vše bez nutnosti vědět jedinou věc o tom, jak upravovat fotografie, videa nebo Zvuk.
Velká nebezpečí AI Deepfakes
Zástupce AI video generátory již existují, vedle spousty AI hlasové generátory. Vhoďte a velký jazykový model jako GPT-4 a máte recept na vytvoření těch nejvěrohodnějších deepfakes, jaké jsme zatím v moderní historii viděli.
Být si vědom různých druhů hlubokých fakeů AI a toho, jak mohou být použity k oklamání, je jedním ze způsobů, jak se vyhnout oklamání. Zde je jen několik vážných příkladů toho, jak technologie AI deepfake představuje skutečnou hrozbu.
1. Krádež identity AI
Možná jste je viděli. Mezi první skutečně virální AI deepfakes, které se rozšířily po celém světě, byl obrázek zatčeného Donalda Trumpa a jeden z papežů Františka v bílé bundě.
Zatímco jeden vypadá jako nevinná re-imaginace toho, co by si slavná náboženská osobnost mohla obléct do chladného dne v Římě; druhý obrázek, který ukazuje politickou osobnost ve vážné situaci se zákonem, má mnohem větší důsledky, pokud je považován za skutečný.
Dosud se lidé při vytváření AI deepfakes zaměřovali hlavně na celebrity, politické osobnosti a další slavné osobnosti. Částečně je to proto, že slavní jedinci mají na internetu spoustu jejich fotografií, které pravděpodobně pomohly trénovat modelku na prvním místě.
V případě generátoru obrázků AI, jako je Midjourney – používaného jak v deepfake Trumpa, tak papeže – musí uživatel jednoduše zadat text popisující to, co chce vidět. Klíčová slova lze použít k určení uměleckého stylu, jako je fotografie nebo fotorealismus, a výsledky lze doladit zvýšením rozlišení.
Můžete stejně snadno Naučte se používat Midjourney a vyzkoušejte si to sami, ale ze zjevných morálních a právních důvodů byste se měli vyhnout zveřejňování těchto obrázků.
Být průměrným, neslavným člověkem vám bohužel také nezaručí, že jste v bezpečí před AI deepfakes.
Problém spočívá v klíčové funkci, kterou nabízejí generátory obrázků AI: možnost nahrát vlastní obrázek a manipulovat s ním pomocí AI. A takový nástroj Malba v DALL-E 2 může rozšířit existující obrázek za jeho hranice zadáním textové výzvy a popisem toho, co byste ještě chtěli vygenerovat.
Pokud by to s vašimi fotografiemi udělal někdo jiný, nebezpečí by mohlo být podstatně větší než deepfake papeže v bílé bundě – může to použít kdekoli a předstírat, že jste vy. Zatímco většina lidí obecně používá AI s dobrými úmysly, existuje jen velmi málo omezení, která lidem brání v jejím používání ke způsobení škody, zejména v případech krádeže identity.
2. Deepfake Voice Clone Scams
S pomocí AI překročily deepfakes hranici, na kterou většina z nás nebyla připravena: falešné hlasové klony. Díky malému množství originálního zvuku – třeba z videa TikTok, které jste kdysi zveřejnili, nebo videa na YouTube, ve kterém se objevíte – dokáže model umělé inteligence replikovat váš jediný hlas.
Představit si, že přijmete telefonní hovor, který zní jako od člena rodiny, přítele nebo kolegy, je zároveň záhadné a zároveň děsivé. Deepfake hlasové klony jsou natolik vážným problémem, že Federální obchodní komise (FTC) vydal na to varování.
Nevěřte hlasu. Zavolejte osobě, která vás údajně kontaktovala, a ověřte si příběh. Použijte telefonní číslo, o kterém víte, že je jejich. Pokud nemůžete svého milovaného kontaktovat, zkuste se s ním spojit prostřednictvím jiného člena rodiny nebo jeho přátel.
Informoval o tom The Washington Post případ páru ve věku 70 let, kterému zavolal někdo, kdo zněl stejně jako jejich vnuk. Byl ve vězení a nutně potřeboval peníze na kauci. Protože neměli žádný jiný důvod pochybovat o tom, s kým mluví, pokračovali a předali peníze podvodníkovi.
Nejen starší generace je ohrožena, Informoval o tom The Guardian další příklad bankovního manažera, který schválil transakci v hodnotě 35 milionů dolarů po sérii „hluboce předstíraných hovorů“ od někoho, o kom se domnívali, že je ředitelem banky.
3. Masově produkované falešné zprávy
Velké jazykové modely, např ChatGPT jsou velmi, velmi dobří ve vytváření textu, který zní stejně jako člověk, a v současné době nemáme účinné nástroje, abychom ten rozdíl odhalili. Ve špatných rukou bude výroba falešných zpráv a konspiračních teorií levná a jejich odhalení bude trvat déle.
Šíření dezinformací samozřejmě není nic nového, ale výzkumný dokument zveřejněno na arXiv v lednu 2023 vysvětluje, že problém spočívá v tom, jak snadné je zvětšit výstup pomocí nástrojů AI. Označují to jako „kampaně vlivu generované umělou inteligencí“, které by podle nich mohli například politici využít k outsourcingu svých politických kampaní.
Kombinací více než jednoho zdroje generovaného umělou inteligencí vzniká hluboký fake na vysoké úrovni. Model umělé inteligence může například generovat dobře napsaný a přesvědčivý zpravodajský příběh, který se hodí k falešnému obrazu zatčení Donalda Trumpa. To mu dává větší legitimitu, než kdyby byl obrázek sdílen samostatně.
Falešné zprávy se neomezují pouze na obrázky a psaní, vývoj v generování AI videa znamená, že se objevuje více deepfake videí. Zde je jeden z Roberta Downey Jr. naroubovaný na video Elona Muska, které zveřejnil YouTube kanál Deepfakery.
Vytvoření deepfake může být stejně jednoduché jako stažení aplikace. Můžete použít aplikaci jako TokkingHeads pro přeměnu statických obrázků na animované avatary, která vám umožňuje nahrát vlastní obrázek a zvuk, aby to vypadalo, že daná osoba mluví.
Z velké části je to zábavné a zábavné, ale je tu také potenciál pro problémy. Ukazuje nám, jak snadné je použít něčí obrázek k tomu, aby to vypadalo, jako by tato osoba pronesla slova, která nikdy neřekla.
Nenechte se zmást AI Deepfake
Deepfakes lze rychle nasadit s velmi nízkými náklady as nízkými požadavky na odbornost nebo výpočetní výkon. Mohou mít podobu generovaného obrázku, hlasového klonu nebo kombinace obrázků, zvuku a textu generovaných umělou inteligencí.
Dříve bylo mnohem obtížnější a pracnější vytvořit deepfake, ale nyní, se spoustou aplikací umělé inteligence, má téměř kdokoli přístup k nástrojům používaným k vytváření deepfake. Vzhledem k tomu, že technologie AI deepfake je stále pokročilejší, stojí za to bedlivě sledovat nebezpečí, která představuje.