Stále více společností zakazuje ChatGPT na pracovišti, ale co se za těmito zákazy skrývá?
Navzdory jeho působivým schopnostem několik velkých společností zakázalo svým zaměstnancům používat ChatGPT.
V květnu 2023 společnost Samsung zakázala používání ChatGPT a dalších generativních nástrojů AI. Poté v červnu 2023 následovala Commonwealth Bank of Australia spolu se společnostmi jako Amazon, Apple a JPMorgan Chase & Co. Některé nemocnice, právnické firmy a vládní agentury také zakázaly zaměstnancům používání ChatGPT.
Proč tedy stále více společností zakazuje ChatGPT? Zde je pět hlavních důvodů.
1. Úniky dat
ChatGPT vyžaduje velké množství dat pro efektivní trénování a provoz. Chatbot byl trénován pomocí obrovského množství dat odvozených z internetu a pokračuje ve výcviku.
Podle Stránka nápovědy OpenAI, každý kus dat, včetně důvěrných podrobností o zákaznících, obchodních tajemství a citlivých záležitostí informace, které chatbotovi poskytnete, podléhají kontrole jeho školitelů, kteří mohou vaše data použít ke zlepšení jejich systémy.
Mnoho společností podléhá přísným předpisům na ochranu osobních údajů. V důsledku toho jsou obezřetní ve sdílení osobních údajů s externími subjekty, protože to zvyšuje rizika úniku dat.
Kromě toho OpenAI nenabízí žádnou spolehlivou ochranu dat a záruku důvěrnosti. V březnu 2023 OpenAI potvrzeno chyba umožňující některým uživatelům zobrazit názvy chatu v historii ostatních aktivních uživatelů. Přestože byla tato chyba opravena a OpenAI spustilo bug bounty program, společnost nezaručuje bezpečnost a soukromí uživatelských dat.
Mnoho organizací se rozhodlo omezit zaměstnance v používání ChatGPT, aby se zabránilo úniku dat, které mohou poškodit jejich pověst, vést k finančním ztrátám a vystavit jejich zákazníkům a zaměstnancům riziko.
2. Kyberbezpečnostní rizika
Zatímco není jasné, zda je ChatGPT skutečně náchylný k rizikům kybernetické bezpečnosti, existuje šance, že jeho nasazení v rámci organizace může přinést potenciální zranitelnosti, které mohou kybernetičtí útočníci využít.
Pokud společnost integruje ChatGPT a existují slabá místa v bezpečnostním systému chatbota, útočníci mohou být schopni zneužít zranitelnosti a vložit malwarové kódy. Schopnost ChatGPT generovat reakce podobné lidem je také zlatým vejcem pro phishingové útočníky, kteří mohou přes účet nebo se vydávat za legitimní subjekty s cílem oklamat zaměstnance společnosti, aby byli citlivé na sdílení informace.
3. Tvorba personalizovaných chatbotů
Navzdory svým inovativním funkcím může ChatGPT produkovat nepravdivé a zavádějící informace. Výsledkem je, že mnoho společností vytvořilo AI chatboty pro pracovní účely. Například Commonwealth Bank of Australia požádala své zaměstnance, aby místo toho používali Gen.ai, chatbota s umělou inteligencí (AI), který využívá informace CommBank k poskytování odpovědí.
Společnosti jako Samsung a Amazon vyvinuly pokročilé modely přirozeného jazyka, takže podniky mohou snadno vytvářet a nasazovat personalizované chatboty založené na existujících přepisech. S těmito interními chatboty můžete předejít právním a reputačním následkům spojeným s nesprávným zacházením s daty.
4. Nedostatek regulace
V odvětvích, kde společnosti podléhají regulačním protokolům a sankcím, je nedostatek regulačních pokynů ChatGPT varovným signálem. Bez přesných regulačních podmínek upravujících používání ChatGPT mohou společnosti čelit vážným právním důsledkům při používání chatbota AI pro své operace.
Nedostatečná regulace může navíc snížit odpovědnost a transparentnost společnosti. Většina společností může být zmatená při vysvětlování Rozhodovací procesy a bezpečnostní opatření jazykového modelu AI svým zákazníkům.
Společnosti omezují ChatGPT, protože se obávají možného porušení zákonů na ochranu soukromí a průmyslových předpisů.
5. Nezodpovědné používání zaměstnanci
V mnoha společnostech se někteří zaměstnanci při vytváření obsahu a plnění svých povinností spoléhají pouze na odpovědi ChatGPT. To plodí lenost v pracovním prostředí a omezuje kreativitu a inovace.
Závislost na AI může bránit vaší schopnosti kriticky myslet. Může to také poškodit důvěryhodnost společnosti, protože ChatGPT často poskytuje nepřesná a nespolehlivá data.
Ačkoli je ChatGPT mocný nástroj, jeho použití k řešení složitých dotazů vyžadujících odbornost specifickou pro doménu může poškodit provoz a efektivitu společnosti. Někteří zaměstnanci si možná nepamatují, že by si měli ověřit a ověřit odpovědi poskytnuté chatbotem AI, přičemž odpovědi považují za univerzální řešení.
Ke zmírnění problémů, jako jsou tyto, společnosti zakazují chatbota, aby se zaměstnanci mohli soustředit na své úkoly a poskytovat uživatelům bezchybná řešení.
ChatGPT Bans: Better Safe than Sorry
Společnosti zakazující ChatGPT upozorňují na rizika kybernetické bezpečnosti, etické standardy zaměstnanců a problémy s dodržováním předpisů. Neschopnost ChatGPT zmírnit tyto výzvy a zároveň poskytovat průmyslová řešení svědčí o jeho omezeních a je třeba se dále vyvíjet.
Mezitím společnosti přecházejí na alternativní chatboty nebo jednoduše omezují zaměstnance ve využívání ChatGPT, aby se zabránilo potenciálnímu narušení dat a nespolehlivému zabezpečení a regulačním protokolům spojeným s chatbot.