Umělá inteligence může znít jako prezident. Nebo to může znít jako vy nebo já. Jaké riziko kybernetické bezpečnosti tedy software pro klonování hlasu AI představuje?

Umělá inteligence (AI) je účinná technologie, která slibuje, že změní naše životy. Nikdy to nebylo tak jasné jako dnes, kdy jsou výkonné nástroje dostupné komukoli s připojením k internetu.

Patří sem hlasové generátory umělé inteligence, pokročilý software schopný napodobit lidskou řeč tak kompetentně, že je nelze rozlišit. Co to znamená pro kybernetickou bezpečnost?

Jak fungují hlasové generátory AI?

Syntéza řeči, proces umělého vytváření lidské řeči, existuje již desítky let. A jako každá technologie prošla v průběhu let hlubokými změnami.

Ti, kteří používali Windows 2000 a XP, si možná pamatují Microsoft Sam, výchozí mužský hlas operačního systému pro převod textu na řeč. Microsoft Sam to zvládl, ale zvuky, které produkoval, byly robotické, strnulé a nepřirozené. Nástroje, které dnes máme k dispozici, jsou podstatně pokročilejší, a to především díky hlubokému učení.

instagram viewer

Hluboké učení je a metoda strojového učení která je založena na umělých neuronových sítích. Díky těmto neuronovým sítím je moderní umělá inteligence schopna zpracovávat data téměř tak, jako neurony v lidském mozku interpretují informace. To znamená, že čím více se AI podobá lidské, tím lépe napodobuje lidské chování.

Takto ve zkratce fungují moderní hlasové generátory AI. Čím více řečových dat jsou vystaveni, tím zběhlejší v emulaci lidské řeči. Díky relativně nedávnému pokroku v této technologii může nejmodernější software pro převod textu na řeč v podstatě replikovat zvuky, které přivádí.

Jak aktéři hrozeb používají hlasové generátory AI

Není překvapením, že tuto technologii zneužívají aktéři hrozeb. A nejen kyberzločinci v typickém slova smyslu, ale také dezinformační agenti, podvodníci, obchodníci s černými klobouky a trollové.

Ve chvíli, kdy ElevenLabs v lednu 2023 vydala beta verzi svého softwaru pro převod textu na řeč, krajně pravicoví trollové na nástěnce 4chan ji začali zneužívat. Pomocí pokročilé umělé inteligence reprodukovali hlasy jednotlivců jako David Attenborough a Emma Watson, takže to vypadalo, jako by celebrity prováděly odporné, nenávistné tirády.

Tak jako Svěrák ElevenLabs v té době připustilo, že lidé zneužívali její software, zejména klonování hlasu. Tato funkce umožňuje komukoli „naklonovat“ hlas jiné osoby; vše, co musíte udělat, je nahrát minutovou nahrávku a zbytek nechat AI. Pravděpodobně čím delší je záznam, tím lepší je výstup.

V březnu 2023 upoutalo pozornost virální video TikTok The New York Times. Ve videu byli slyšeni slavný podcaster Joe Rogan a Dr. Andrew Huberman, častý host na The Joe Rogan Experience, jak diskutovali o kofeinovém nápoji „zlepšujícím libido“. Díky videu to vypadalo, jako by Rogan i Huberman produkt jednoznačně podporovali. Ve skutečnosti byly jejich hlasy klonovány pomocí AI.

Přibližně ve stejnou dobu se kvůli chybám v řízení rizik a dalším problémům zhroutila banka Silicon Valley se sídlem v Santa Clara v Kalifornii a byla převzata státní vládou. Jednalo se o největší krach banky ve Spojených státech od finanční krize v roce 2008, takže to vyvolalo šokové vlny napříč globálními trhy.

K panice přispěla falešná zvuková nahrávka amerického prezidenta Joea Bidena. V nahrávce Biden zjevně slyšel varování před bezprostředním „kolapsem“ a nařídil své administrativě, aby „použila plnou sílu médií ke zklidnění veřejnosti“. Ověřovatelé faktů jako PolitiFact rychle odhalit klip, ale je pravděpodobné, že ho do té doby slyšely miliony lidí.

Pokud lze hlasové generátory umělé inteligence použít k napodobování celebrit, lze je použít také k napodobování obyčejných lidí, a to je přesně to, co kyberzločinci dělají. Podle ZDNet, tisíce Američanů padnou na podvody známé jako vishing nebo hlasový phishing každý rok. Jeden starší pár se v roce 2023 dostal na celostátní titulky, když mu zavolal jejich „vnuk“, který tvrdil, že je ve vězení a žádal o peníze.

Pokud jste někdy nahráli video na YouTube (nebo se v něm objevili), zúčastnili se velkého skupinového hovoru s lidmi, které víte, nebo nahráli svůj hlas na internet v nějaké kapacitě, vy nebo vaši blízcí byste teoreticky mohli být v nebezpečí. Co zabrání podvodníkovi nahrát váš hlas do generátoru AI, naklonovat jej a kontaktovat vaši rodinu?

Hlasové generátory AI narušují prostředí kybernetické bezpečnosti

Není potřeba odborníka na kybernetickou bezpečnost, aby rozpoznal, jak nebezpečná může být umělá inteligence ve špatných rukou. A i když je pravda, že totéž lze říci o všech technologiích, AI je jedinečnou hrozbou z několika důvodů.

Jednak je relativně nový, což znamená, že vlastně nevíme, co od něj čekat. Moderní nástroje umělé inteligence umožňují kyberzločincům škálovat a automatizovat své operace bezprecedentním způsobem, přičemž využívají relativní neznalosti veřejnosti, pokud jde o tuto záležitost. Generativní umělá inteligence také umožňuje aktérům ohrožení s malými znalostmi a dovednostmi vytvořit škodlivý kód, vytvářet podvodné weby, šířit spam, psát phishingové e-maily, vytvářet realistické obrázkya produkovat nekonečné hodiny falešného audio a video obsahu.

Zásadní je, že to funguje oběma způsoby: umělá inteligence se také používá k ochraně systémů a pravděpodobně ještě po desetiletí bude. Nebylo by nerozumné předpokládat, že to, co nás čeká, je druh závodu ve zbrojení AI mezi kyberzločinci a průmysl kybernetické bezpečnosti, protože obranné a útočné kapacity těchto nástrojů jsou neodmyslitelně rovnat se.

Pro běžného člověka si nástup rozšířené generativní umělé inteligence žádá radikál přehodnocení bezpečnostních postupů. Jakkoli může být umělá inteligence vzrušující a užitečná, může přinejmenším smazat hranici mezi tím, co je skutečné a čím není a v nejhorším případě zhorší stávající bezpečnostní problémy a vytvoří nový prostor pro manévrování aktérů hrozeb v.

Hlasové generátory ukazují destruktivní potenciál AI

Jakmile se ChatGPT dostal na trh, začaly se mluvit o regulaci AI. Jakýkoli pokus o omezení této technologie by pravděpodobně vyžadoval mezinárodní spolupráci v takové míře, jakou jsme neviděli desítky let, což je nepravděpodobné.

Džin je z láhve venku a to nejlepší, co můžeme udělat, je zvyknout si na něj. To a doufáme, že se sektor kybernetické bezpečnosti odpovídajícím způsobem přizpůsobí.