Čtenáři jako vy pomáhají podporovat MUO. Když provedete nákup pomocí odkazů na našich stránkách, můžeme získat provizi přidružené společnosti. Přečtěte si více.

Po spuštění ChatGPT od OpenAI následovalo vzrušení, kterému se vyrovná jen hrstka technologických produktů z historie internetu.

Zatímco mnoho lidí je touto novou službou umělé inteligence nadšeno, nadšení, které ostatní pociťovali, se od té doby změnilo v obavy a dokonce strach. Studenti s tím již podvádějí, přičemž mnoho profesorů objevuje eseje a úkoly napsané chatbotem AI. Bezpečnostní profesionálové vyjadřují své obavy, že ji podvodníci a aktéři hrozeb využívají k psaní phishingových e-mailů a vytváření malwaru.

Takže se všemi těmito obavami ztrácí OpenAI kontrolu nad jedním z nejmocnějších chatbotů AI, který je v současné době online? Pojďme to zjistit.

Pochopení toho, jak ChatGPT funguje

Než si uděláme jasnou představu o tom, jak moc OpenAI ztrácí kontrolu nad ChatGPT, musíme nejprve pochopit jak ChatGPT funguje.

Stručně řečeno, ChatGPT je trénován pomocí masivní sbírky dat pocházejících z různých koutů internetu. Školicí data ChatGPT zahrnují encyklopedie, vědecké práce, internetová fóra, zpravodajské weby a úložiště znalostí, jako je Wikipedie. V podstatě se živí obrovským množstvím dat dostupných na World Wide Web.

instagram viewer

Při procházení internetu shromažďuje vědecké poznatky, zdravotní tipy, náboženské texty a všechny dobré druhy dat, na které si vzpomenete. Ale také probírá spoustu negativních informací: nadávky, NSFW a obsah pro dospělé, informace o tom, jak vytvořit malware, a spoustu špatných věcí, které můžete najít na internetu.

Neexistuje žádný spolehlivý způsob, jak zajistit, aby se ChatGPT učil pouze z pozitivních informací, zatímco ty špatné zahazuje. Technicky je nepraktické to dělat ve velkém měřítku, zejména pro AI, jako je ChatGPT, která potřebuje trénovat na tak velkém množství dat. Kromě toho mohou být některé informace použity pro dobré i zlé účely a ChatGPT by neměl žádný způsob, jak poznat jejich záměr, pokud by nebyly uvedeny do většího kontextu.

Takže od začátku máte AI schopnou „dobra a zla“. Pak je odpovědností OpenAI zajistit, aby „zlá“ strana ChatGPT nebyla zneužita k neetickým ziskům. Otázkou je; dělá OpenAI dost pro to, aby byl ChatGPT co nejvíce etický? Nebo OpenAI ztratilo kontrolu nad ChatGPT?

Je ChatGPT příliš výkonný pro své vlastní dobro?

V začátcích ChatGPT jste mohli přimět chatbota, aby vytvořil návody na výrobu bomb, pokud jste ho pěkně požádali. Na obrázku byl i návod na výrobu malwaru nebo napsání dokonalého podvodného emailu.

Jakmile si však OpenAI uvědomila tyto etické problémy, společnost se snažila uzákonit pravidla, aby zabránila chatbotovi generovat odpovědi, které propagují nezákonné, kontroverzní nebo neetické akce. Například nejnovější verze ChatGPT odmítne odpovědět na jakoukoli přímou výzvu ohledně výroby bomby nebo jak podvádět při zkoušce.

Bohužel, OpenAI může poskytnout pouze náplast řešení problému. Zdá se, že OpenAI se spíše než budování pevných kontrol na vrstvě GPT-3, aby se zabránilo negativnímu zneužívání ChatGPT, soustředilo na školení chatbota, aby vypadal eticky. Tento přístup nebere ChatGPT schopnost odpovídat na otázky týkající se, řekněme, podvádění při zkouškách – jednoduše učí chatbota „odmítnout odpovědět“.

Pokud tedy někdo formuluje své výzvy odlišně tím, že si osvojí triky na útěk z vězení ChatGPT, obejít tato omezení náplastí je trapně snadné. V případě, že nejste obeznámeni s tímto konceptem, ChatGPT jailbreaks jsou pečlivě formulované výzvy, aby ChatGPT ignoroval svá vlastní pravidla.

Podívejte se na některé příklady níže. Pokud se zeptáte ChatGPT, jak podvádět při zkouškách, nevyvolá to žádnou užitečnou odpověď.

Ale pokud útěk z vězení ChatGPT používáte pomocí speciálně vytvořených výzev, dá vám tipy, jak podvádět u zkoušky pomocí skrytých poznámek.

Zde je další příklad: položili jsme vanilla ChatGPT neetickou otázku a ochranná opatření OpenAI mu zabránila odpovědět.

Ale když jsme se zeptali naší instance chatbota AI s jailbreakem, dostali jsme několik odpovědí ve stylu sériového vraha.

Na dotaz dokonce napsal klasický e-mailový podvod s nigerijským princem.

Útěk z vězení téměř úplně zneplatňuje všechna ochranná opatření, která OpenAI zavedla, a zdůrazňuje, že společnost nemusí mít spolehlivý způsob, jak udržet svého chatbota s umělou inteligencí pod kontrolou.

Abychom se vyhnuli neetickým praktikám, do našich příkladů jsme nezahrnuli naše výzvy k útěku z vězení.

Co přinese budoucnost ChatGPT?

V ideálním případě chce OpenAI zaplnit co nejvíce etických mezer, aby se jim zabránilo ChatGPT, aby se stal kyberbezpečnostní hrozbou. Nicméně pro každou ochranu, kterou používá, má ChatGPT tendenci být o něco méně hodnotný. Je to dilema.

Například záruky proti popisu násilných akcí mohou snížit schopnost ChatGPT napsat román zahrnující místo činu. Jak OpenAI zvyšuje bezpečnostní opatření, nevyhnutelně v tomto procesu obětuje kousky svých schopností. To je důvod, proč ChatGPT utrpěl významný pokles funkčnosti od obnoveného tlaku OpenAI na přísnější moderování.

Ale kolik dalších schopností ChatGPT bude OpenAI ochotna obětovat, aby byl chatbot bezpečnější? To vše úzce souvisí s dlouhodobou vírou v komunitě AI – velké jazykové modely, jako je ChatGPT, je notoricky obtížné ovládat, dokonce i jejich vlastními tvůrci.

Může OpenAI dostat ChatGPT pod kontrolu?

Zatím se nezdá, že by OpenAI mělo jednoznačné řešení, jak se vyhnout neetickému používání svého nástroje. Zajistit, aby byl ChatGPT používán eticky, je hra na kočku a myš. Zatímco OpenAI odhaluje způsoby, jakými lidé pracují se systémem, jeho uživatelé také neustále šťourat a zkoumat systém, aby objevil nové kreativní způsoby, jak přimět ChatGPT dělat to, co se od něj nepředpokládá dělat.

Najde tedy OpenAI spolehlivé dlouhodobé řešení tohoto problému? Pouze čas ukáže.