Mnoho z nás používá ChatGPT frivolně, ale přichází s vážnými problémy se zabezpečením a ochranou soukromí, o kterých musíte vědět.
V lednu 2023, pouhé dva měsíce po spuštění, se ChatGPT (Generative Pre-trained Transformer) stal nejrychleji rostoucí aplikací všech dob a shromáždil více než 100 milionů uživatelů.
Pokročilý chatbot OpenAI možná oživil zájem veřejnosti o umělou inteligenci, ale jen málokdo vážně uvažoval o potenciálních bezpečnostních rizicích spojených s tímto produktem.
ChatGPT: Bezpečnostní hrozby a problémy
Technologie, na které stojí ChatGPT a další chatboti, může být podobná, ale ChatGPT je v kategorii sama o sobě. To je skvělá zpráva, pokud jej hodláte používat jako svého druhu osobního asistenta, ale znepokojivá, pokud uvážíte, že jej používají i aktéři hrozeb.
Kyberzločinci mohou využít ChatGPT k zápisu malwaru, vytvářet podvodné webové stránky, generovat phishingové e-maily, vytvářet falešné zprávy a tak dále. Z tohoto důvodu může být ChatGPT větším rizikem kybernetické bezpečnosti než přínosem Pípavý počítač dát to do analýzy.
Zároveň existují vážné obavy, že samotný ChatGPT má určité neřešené zranitelnosti. Například v březnu 2023 se objevily zprávy o tom, že někteří uživatelé mohli zobrazit názvy konverzací ostatních. Tak jako The Verge v té době uvedl generální ředitel OpenAI Sam Altman, že problém způsobila „chyba v knihovně s otevřeným zdrojovým kódem“.
To jen podtrhuje, jak je to důležité omezit to, co sdílíte s ChatGPT, která ve výchozím nastavení shromažďuje ohromující množství dat. Technologický gigant Samsung se to naučil tvrdě, když skupina zaměstnanců, kteří chatbota používali jako asistenta, omylem prozradila důvěrné informace.
Je ChatGPT hrozbou pro vaše soukromí?
Zabezpečení a soukromí není jedno a totéž, ale spolu úzce souvisí a často se prolínají. Pokud je ChatGPT bezpečnostní hrozbou, pak je také hrozbou pro soukromí a naopak. Co to ale znamená v praktičtějších termínech? Jaké jsou zásady zabezpečení a ochrany soukromí ChatGPT?
Miliardy slov byly seškrábány z internetu, aby se vytvořila rozsáhlá databáze ChatGPT. Tato databáze se neustále rozšiřuje, protože ChatGPT ukládá vše, co uživatelé sdílejí. Nezisková organizace se sídlem v USA Selský rozum dal ChatGPT hodnocení ochrany soukromí 61 procent s tím, že chatbot shromažďuje osobně identifikovatelné informace (PII) a další citlivá data. Většina těchto dat je uložena nebo sdílena s určitými třetími stranami.
V každém případě byste měli být opatrní při používání ChatGPT, zejména pokud jej používáte k prácinebo ke zpracování citlivých informací. Obecně platí, že byste s robotem neměli sdílet to, co byste nechtěli, aby veřejnost věděla.
Řešení bezpečnostních rizik spojených s ChatGPT
Umělá inteligence bude v určitém okamžiku regulována, ale je těžké si představit svět, ve kterém by nepředstavovala bezpečnostní hrozbu. Jako každá technologie může být – a bude – zneužita.
V budoucnu se chatboti stanou nedílnou součástí vyhledávačů, hlasových asistentů a sociálních sítí Malwarebytes. A budou hrát roli v různých odvětvích, od zdravotnictví a školství až po finance a zábavu.
To radikálně změní bezpečnost, jak ji známe. Jak ale také poznamenal Malwarebytes, ChatGPT a podobné nástroje mohou používat i profesionálové v oblasti kybernetické bezpečnosti; například hledat chyby v softwaru nebo „podezřelé vzorce“ v síťové aktivitě.
Zvyšování povědomí je klíčové
Čeho bude ChatGPT schopen za pět nebo 10 let? Můžeme jen spekulovat, ale co víme jistě je, že umělá inteligence nikam nevede.
Jak se objeví ještě pokročilejší chatboti, celá průmyslová odvětví se budou muset přizpůsobit a naučit se je zodpovědně používat. To zahrnuje odvětví kybernetické bezpečnosti, které je již formováno umělou inteligencí. Zvyšování povědomí o bezpečnostních rizicích spojených s AI je klíčové a pomůže zajistit, že tyto technologie budou vyvíjeny a používány etickým způsobem.