Chcete zkontrolovat, zda něco vytvořila umělá inteligence? Detektory často nefungují a to je špatná zpráva pro vaši bezpečnost.

Umělá inteligence (AI) promění celé segmenty naší společnosti, ať se nám to líbí nebo ne, a to včetně World Wide Web.

Se softwarem, jako je ChatGPT, který je dostupný komukoli, kdo má připojení k internetu, je stále obtížnější oddělit obsah generovaný umělou inteligencí od obsahu vytvořeného lidskou bytostí. Dobrá věc, že ​​máme detektory obsahu AI, že?

Fungují detektory obsahu AI?

Detektory obsahu AI jsou specializované nástroje, které určují, zda něco napsal počítačový program nebo člověk. Pokud zadáte do Googlu slova „AI content detector“, uvidíte detektorů jsou desítky tam venku, všichni tvrdí, že dokážou spolehlivě rozlišit mezi lidským a nelidským textem.

Způsob, jakým fungují, je poměrně jednoduchý: vložíte text a nástroj vám řekne, zda byl vygenerován umělou inteligencí nebo ne. Technickěji řečeno, za použití kombinace technik zpracování přirozeného jazyka a stroje učící se algoritmy, detektory obsahu AI hledají vzory a předvídatelnost a na základě nich uskutečňují hovory že.

instagram viewer

Na papíře to zní skvěle, ale pokud jste někdy používali nástroj pro detekci umělé inteligence, velmi dobře víte, že jsou, mírně řečeno, trefou a chybou. Častěji detekují obsah psaný lidmi jako AI nebo text vytvořený lidmi jako generovaný AI. Ve skutečnosti jsou někteří až trapně špatní v tom, co mají dělat.

Jak přesné jsou detektory obsahu AI?

Pokud jste ve Spojených státech, první výsledek vyhledávání Google pro „AI content detector“ je spisovatel.com (dříve známý jako Qordoba; toto je platforma obsahu AI, která má také svůj vlastní detektor). Ale když vložíte část tohoto náhodného Associated Press článek do nástroje, tvrdí, že je velmi dobrá šance, že jej vytvořila umělá inteligence.

Spisovatel.com to má špatně.

Abychom byli spravedliví, ostatní detektory obsahu umělé inteligence nejsou o nic lepší. Nejen, že produkují falešně pozitivní výsledky, ale také označují obsah AI jako lidský. A i když tomu tak není, stačí provést drobné úpravy textu generovaného umělou inteligencí.

V únoru 2023 přednášející na University of Wollongong Armin Alimardani a docent na UNSW Sydney Emma A. Jane testovala řadu oblíbených detektorů obsahu AI a zjistila, že žádný z nich není spolehlivý. V jejich analýze, která byla zveřejněna v KonverzaceAlimardani a Jane dospěli k závěru, že tento „závod ve zbrojení“ umělé inteligence mezi textovými generátory a detektory bude v budoucnu představovat významnou výzvu, zejména pro pedagogy.

Ale nejsou to jen vychovatelé a učitelé, kdo má důvod k obavám: každý má. Jak se text generovaný umělou inteligencí stává všudypřítomným a dokáže rozlišovat mezi tím, co je „skutečné“ a co není, tj. vlastně pozorování, když něco napíše AI, bude obtížnější. To bude mít masivní dopad na prakticky všechna odvětví a oblasti společnosti, dokonce i na osobní vztahy.

Důsledky umělé inteligence pro kybernetickou bezpečnost a soukromí

Skutečnost, že neexistují žádné spolehlivé mechanismy, které by určily, zda něco bylo vytvořeno softwarem nebo člověkem, má vážné důsledky pro kybernetickou bezpečnost a soukromí.

Aktéři ohrožení už jsou pomocí ChatGPT psát malware, generovat phishingové e-maily, psát spam, vytvářet podvodné weby a další. A i když existují způsoby, jak se proti tomu bránit, je jistě znepokojivé, že neexistuje žádný software schopný spolehlivě rozlišovat mezi organickým obsahem a obsahem botů.

Fake news, také, už jsou obrovský problém. S generativní AI na obrázku jsou dezinformační agenti schopni škálovat své operace bezprecedentním způsobem. Běžný člověk mezitím nemá žádný způsob, jak zjistit, zda něco, co čte online, vytvořil software nebo lidská bytost.

Soukromí je úplně jiná věc. Vezměte si například ChatGPT. to bylo nakrmilo více než 300 miliard slov před jeho spuštěním. Tento obsah byl stažen z knih, příspěvků na blogu a fórech, článků a sociálních médií. Byl shromážděn bez něčího souhlasu a se zdánlivě naprostým ignorováním ochrany soukromí a autorských práv.

Pak je tu také problém falešných poplachů. Pokud je obsah omylem označen jako generovaný AI, nemůže to vést k cenzuře, což je každopádně obrovský problém? Nemluvě o škodách, které by mohlo způsobit obviňování z používání textu vytvořeného umělou inteligencí na pověsti člověka, a to jak online, tak v reálném životě.

Pokud skutečně existuje závod ve zbrojení mezi generativní AI a detektory obsahu, první vyhrává. A co hůř, zdá se, že žádné řešení neexistuje. Všechno, co máme, jsou naše polotovary, které nefungují ani polovinu času nebo se dají velmi snadno oklamat.

Jak zjistit obsah AI: Potenciální řešení

To, že se v současnosti zdá, že na tento problém nemáme skutečné odpovědi, neznamená, že v budoucnu žádné mít nebudeme. Ve skutečnosti již existuje několik vážných návrhů, které by mohly fungovat. Vodoznak je jeden.

Pokud jde o AI a hluboké jazykové modely, vodoznak se týká vkládání tajného kódu do textu generovaného AI (např. vzor slov, styl interpunkce). Takový vodoznak by byl neviditelný pouhým okem, a tudíž téměř nemožné jej odstranit, ale specializovaný software by jej dokázal detekovat.

Ve skutečnosti v roce 2022 University of Maryland výzkumníci vyvinuli novou metodu vodoznaku pro umělé neuronové sítě. Vedoucí výzkumu Tom Goldstein tehdy řekl, že jeho týmu se podařilo „matematicky dokázat“, že jejich vodoznak nelze zcela odstranit.

Běžný člověk se prozatím může spolehnout na svůj instinkt a zdravý rozum. Pokud je na obsahu, který čtete, něco špatného – pokud vám připadá nepřirozený, opakující se, nenápaditý, banální – mohl být vytvořen softwarem. Samozřejmě byste měli také ověřit všechny informace, které vidíte online, znovu zkontrolovat zdroj a vyhýbat se stinným webům.

Revoluce umělé inteligence probíhá

Někteří tvrdí, že pátá průmyslová revoluce je již tady, protože umělá inteligence hraje ústřední roli v tom, co je popisováno jako konvergence digitálního a fyzického. Ať už je to skutečně tak nebo ne, jediné, co můžeme udělat, je přizpůsobit se.

Dobrou zprávou je, že průmysl kybernetické bezpečnosti se přizpůsobuje této nové realitě a zavádí nové obranné strategie s umělou inteligencí a strojovým učením v popředí.