Tento příspěvek je sponzorován společností Incogni.
Podívej se kolem sebe; prostředí je plné umělé inteligence a jejích téměř zázračných možností. Umělá inteligence neboli umělá inteligence umožňuje počítači nebo stroji uvažovat, učit se a jednat inteligentně jako člověk.
ChatGPT a další generativní technologie umělé inteligence se skutečně šíří téměř ve všech odvětvích – od zdravotnictví, bankovnictví a výroby až po kreativní umění a spotřebitelský software.
Ale dá nám tato posilující nová budoucnost, která prosperuje z dat, naše základní lidské právo na soukromí?
Pokud vás podobné myšlenky napadají, vaše obavy o soukromí týkající se umělé inteligence jsou přirozené. Vaše soukromí je nyní v tomto digitálním věku důležitější než kdy jindy.
Jaká jsou rizika ochrany soukromí spojená s AI?
Podle Průzkumy Pew ResearchKaždý čtvrtý Američan je každý den požádán, aby souhlasil se zásadami ochrany osobních údajů. Přesto pouze 22 % čte zásady ochrany osobních údajů v plném rozsahu.
Podívejme se na služby umělé inteligence, jako je ChatGPT, Google Cloud AI, Jupyter, Viso Suite a Chrorus.ai Jejich zásady ochrany osobních údajů uvádějí, že shromažďovat vaše osobní údaje, obsah, který si prohlížíte nebo se kterým se zabýváte, a dokonce získávat data z platforem sociálních médií a veřejnosti databází.
Vaše data se navíc používají k trénování jejich modelů AI.
Můžete si tedy užít psaní e-mailů a prezentací během několika sekund; chat s robotem zákaznických služeb; virtuálně si vyzkoušet doplňky při nakupování; nebo jen Google, protože reklamy založené na vašich zájmech vás sledují na webu.
Tyto operace jsou založeny na vašich datech, která se shromažďují každou minutu. Pokud to považujete za zásah umělé inteligence do vašeho soukromí, nemýlíte se.
Zatímco společnosti s umělou inteligencí tvrdí, že jsou vaše informace v bezpečí, četná porušení dat kybernetickými zločinci vedla ke krádeži identity, finanční ztrátě a poškození pověsti obětí po celém světě.
Zjištění o Výzkum Global Data Breach Stats společnosti Surfshark ukazují, že USA měly od roku 2004 přes 2,6 miliardy záznamů odhalených prostřednictvím narušení dat.
A většina modelů umělé inteligence je trénována na velkém souboru dat z veřejných zdrojů, z nichž většina je neobjektivní. Tato zaujatost může vést k vážným následkům, jako je porušení vašeho práva na soukromí.
Právní a etické důsledky soukromí ve věku umělé inteligence
Vztahují se naše zákony na ochranu soukromí na AI? Podle Podcast American Bar Association o regulaci umělé inteligence v USA v současnosti neexistuje žádná komplexní federální legislativa věnovaná výhradně regulaci umělé inteligence.
Evropská unie schválila zákon o AI, podle kterého by se regulace zvýšila úměrně potenciální hrozbě pro soukromí a bezpečnost, kterou systém AI představuje. Doufejme, že tento zákon o umělé inteligenci přiměje USA, Spojené království a další země, aby také schválily své zákony.
Regulace umělé inteligence a ochrana soukromí však představují mnoho problémů, protože algoritmy umělé inteligence jsou složité.
Zadruhé, většina stávajících zákonů na ochranu soukromí vychází z modelu oznámení a souhlasu spotřebitele. Zásady ochrany osobních údajů jsou příkladem, se kterým zákazníci souhlasí, ale jen zřídka si je přečtou celé.
Jednotlivci prodávaní v rámci revoluce umělé inteligence mohou také dobrovolně prozradit soukromé informace, čímž zmaří účel zajištění soukromí dat před umělou inteligencí.
V ideálním případě by naše nová budoucnost řízená umělou inteligencí měla být také řízena etikou, abychom chránili naše soukromí dat. Musí být bezpečný, spravedlivý, nezaujatý a prospěšný všem. Tvůrci a vývojáři musí trénovat modely umělé inteligence pomocí dat, která jsou různorodá.
Abychom si získali naši důvěru, modely umělé inteligence musí být transparentní ohledně rozhodnutí, která se přijímají s našimi daty. A vzhledem k tomu, že AI již nahrazuje značnou pracovní sílu, vývoj AI by měl vést k vytváření lepších pracovních míst.
Ochrana soukromí ve světě řízeném umělou inteligencí
Měli byste mít možnost sdílet osobní údaje, které chcete. A společnosti AI musí zavést vylepšená opatření na ochranu dat, aby zajistily, že vaše informace zůstanou v bezpečí a soukromé.
Zásady Privacy-By-Design by měly být začleněny do všech operací, ve všech činnostech a zpracování, a zajistit tak ochranu soukromí dat po celou dobu životního cyklu systému AI.
Modely umělé inteligence a nové společnosti s umělou inteligencí by se navíc měly řídit robustními zákony a předpisy.
V vůbec prvním globálním standardu vyvinutém organizací UNESCO patří právo na soukromí a ochranu dat mezi 10 základních principů tohoto doporučení pro budování technologií umělé inteligence.
Vaše role při ochraně vašeho soukromí
Podle Průzkum Surfshark's Attitudes Towards Privacy Survey 202290 % uživatelů internetu souhlasí s tím, že soukromí na internetu je pro ně důležité. A 32 % uvádí, že kvalita služeb je důležitější než soukromí.
Pokud musíte prozkoumat nejnovější technologii AI, abyste pracovali rychleji, jděte do toho. Věnujte však několik minut přečtení zásad ochrany osobních údajů. A podívejte se na možnost odhlášení sdílení dat.
Začněte spravovat své soukromí se zařízením v ruce nebo na počítači. Použijte VPN k procházení a odepřete oprávnění k ukládání aplikacím, které nepoužíváte.
Věděli jste, že svou digitální stopu můžete pravidelně čistit? A odhlásit se z databází zprostředkovatelé dat kdo shromažďuje vaše osobní údaje?
Vezměte si zpět své soukromí pomocí Inkogniti
Zprostředkovatelé dat se vždy snaží ukrást vaše osobní údaje z veřejných záznamů a prostřednictvím vašich zvyklostí při procházení. Pokud jste si virtuálně vyzkoušeli sluneční brýle, váš obličej by byl také v databázi.
inkognito uvádí zprostředkovatele dat, kteří pravděpodobně disponují informacemi o zákaznících, jako je číslo sociálního pojištění, fyzická adresa, zdravotní údaje, telefonní číslo nebo e-mailová adresa. Taková data se prodávají investičním, zdravotnickým, finančním, marketingovým nebo náborovým společnostem. Nebo se používá k tomu, aby vás podvedl nebo vás chytil do pasti při pokusech o lov velryb.
To vše může mít za následek nežádoucí reklamy, ovlivnit vaši způsobilost k půjčce nebo pojistné sazby a zvýšit riziko kybernetických útoků.
Incogni však vaším jménem zasílá žádosti o odstranění dat zprostředkovatelům dat, a to i poté, co jsou vaše data smazána, protože zprostředkovatelé dat začnou znovu shromažďovat vaše informace.
Proces můžete sledovat a prohlížet si potenciální nalezené databáze, odeslané požadavky a dokončené požadavky na uživatelsky přívětivém panelu Incogni.
Nyní si můžete vzít zpět své soukromí tím, že si vezmete a 1leté předplatné Inkogni s 50% slevou—pouze 6,49 $ měsíčně — a udržujte svá data mimo trh a v bezpečí.
Umělá inteligence a vaše soukromí: Potřeba revoluční rovnováhy
Tato nová budoucnost umělé inteligence je nepochybně náchylná k rizikům ochrany soukromí, a proto je jejich řešení důležité. A Incogni by mohlo být východiskem.
Kolo změn k regulaci společností s umělou inteligencí a ochraně vašeho soukromí se skutečně rozjelo. Doufejme, že získá na síle, aby se stala revolucí jako AI – a naplní potřebu vyváženého přístupu k vývoji AI a ochraně soukromí.
Toto je sponzorovaný příspěvek. Volby produktů a názory vyjádřené v tomto článku jsou od sponzora a neodrážejí redakční směr MakeUseOf nebo jeho zaměstnanců.