AI není připravena nás zničit... dosud.

Umělá inteligence je tématem diskusí od samého počátku. Zatímco obavy z oživení umělé inteligence podobné Skynetu a převzetí lidstva jsou přinejmenším iracionální, některé experimenty přinesly výsledky.

Jedním z takových experimentů je problém maximalizátoru kancelářské sponky, myšlenkový experiment, který ukazuje, že vysoce inteligentní AI, i když je navržena zcela bez zloby, by nakonec mohla zničit lidstvo.

Vysvětlení problému s maximalizátorem kancelářské sponky

Tento myšlenkový experiment, že i zcela neškodná umělá inteligence by mohla nakonec vyhladit lidstvo, byl nejprve nazván maximalizátorem kancelářských sponek jednoduše proto, že byly vybrány sponky, aby ukázaly co by umělá inteligence mohla dělat, protože je v nich malé zjevné nebezpečí a nezpůsobí emocionální útrapy ve srovnání s jinými oblastmi, na které se tento problém vztahuje, jako je léčba rakoviny nebo vítězství války.

První experiment se objevil v novinách švédského filozofa Nicka Bostroma z roku 2003,

instagram viewer
Etické problémy pokročilé umělé inteligence, který zahrnoval maximalizér kancelářských sponek, který ukázal existenční rizika, která by dostatečně pokročilá umělá inteligence mohla využít.

Problém představoval AI, jejímž jediným cílem bylo vyrobit co nejvíce kancelářských sponek. Dostatečně inteligentní umělá inteligence si dříve nebo později uvědomí, že lidé představují výzvu pro její cíl ve třech různých ohledech.

  • Lidé mohli AI vypnout.
  • Lidé mohou změnit své cíle.
  • Lidé se skládají z atomů, které lze přeměnit na kancelářské sponky.

Ve všech třech příkladech by bylo ve vesmíru méně kancelářských sponek. Tedy dostatečně inteligentní AI, jejímž jediným cílem je vyrobit co nejvíce kancelářských sponek by převzal veškerou hmotu a energii v dosahu a zabránil by tomu, aby byla vypnuta resp změněno. Jak pravděpodobně tušíte, je to mnohem nebezpečnější než zločinci používající ChatGPT k hacknutí vašeho bankovního účtu nebo PC.

AI není vůči lidem nepřátelská; je to prostě lhostejné. Umělá inteligence, která se stará pouze o maximalizaci počtu kancelářských sponek, by proto vyhladila lidstvo a v podstatě by je přeměnila na kancelářské sponky, aby dosáhla svého.

Jak se problém s maximalizátorem kancelářských sponek vztahuje na AI?

Výzkumné a experimentální zmínky o problému maximalizátoru kancelářské sponky všechny zmiňují hypotetického extrémně silného optimalizátora nebo vysoce inteligentního agenta, který zde hraje roli. Přesto se problém týká umělé inteligence, pokud se dokonale hodí do role.

Myšlenka maximalizéru kancelářské sponky byla vytvořena proto, aby ukázala některá nebezpečí pokročilé umělé inteligence. Celkově to představuje dva problémy.

  • Teze ortogonality: Teze ortogonality je názor, že inteligence a motivace nejsou vzájemně závislé. To znamená, že je možné, aby umělá inteligence s vysokou úrovní obecné inteligence nedospěla ke stejným morálním závěrům jako lidé.
  • Instrumentální konvergence: Instrumentální konvergence je definována jako tendence pro většinu dostatečně inteligentních bytostí (oba lidské a nelidské) sledovat podobné dílčí cíle, i když jejich konečným cílem může být zcela odlišný. V případě problému maximalizátoru kancelářské sponky to znamená, že AI nakonec převezme všechny přírodní zdroj a vyhladit lidstvo jen proto, aby dosáhl svého cíle vytvářet další a další sponky.

Větší problém, na který upozorňuje maximalizér kancelářské sponky, je instrumentální konvergence. Lze to také zvýraznit pomocí Riemannovy hypotézy, v takovém případě se AI navržená k vyřešení hypotézy může velmi dobře rozhodnout převzít všechny hmotu Země a převést ji na computronium (nejefektivnější možné počítačové procesory), aby bylo možné postavit superpočítače k ​​vyřešení problému a dosažení jeho fotbalová branka.

Sám Bostrom zdůraznil, že nevěří, že problém maximalizátoru kancelářské sponky bude někdy skutečným problémem, ale jeho záměrem bylo ilustrovat nebezpečí vytváření superinteligentních strojů, aniž bychom věděli, jak je ovládat nebo naprogramovat tak, aby nebyly pro člověka existenčně rizikové. bytosti. Moderní systémy AI jako ChatGPT mají také problémy, ale jsou daleko od superinteligentních systémů umělé inteligence, o kterých se mluví v problému maximalizace kancelářských sponek, takže zatím není důvod k panice.

Pokročilé systémy umělé inteligence potřebují vynikající ovládání

Problém maximalizátoru kancelářské sponky vždy dospěje ke stejnému závěru a upozorňuje na problémy řízení vysoce inteligentního a výkonného systému, který postrádá lidské hodnoty.

I když může být použití kancelářských sponek nejoblíbenější metodou pro ilustraci problému, vztahuje se na libovolný počet úkolů, které provádíte může dát AI, ať už jde o odstranění rakoviny, vyhrávání válek, sázení více stromů nebo jakýkoli jiný úkol, bez ohledu na to, jak se zdá hloupý.