Vývoj umělé inteligence jde rychle kupředu, ale kdo by měl řídit umělou inteligenci a její dopad na svět?
Klíčové věci
- Umělá inteligence potřebuje přísnější monitorování, protože se stále objevují zranitelnosti kybernetické bezpečnosti a obavy o soukromí.
- Vláda, technologické společnosti a koncoví uživatelé všichni hrají roli v regulaci AI, ale každý přístup má svá omezení.
- K regulaci umělé inteligence přispívají také média, neziskové organizace, asociace technologického průmyslu, akademické instituce a donucovací orgány.
Široká veřejnost má na AI různé názory – někteří věří, že stroje zcela nahradí lidské pracovníky, zatímco jiní tvrdí, že AI je módní záležitostí. Na jedné věci se však všichni shodnou, že AI potřebuje přísnější monitorování.
Navzdory důležitosti regulace umělé inteligence ustoupila školení. Vývojáři jsou tak posedlí budováním dalšího největšího modelu umělé inteligence, že vyměňují kybernetickou bezpečnost za rychlý pokrok. Otázkou není, zda AI potřebuje regulaci; jde o to, který řídící orgán s odpovídajícími finančními prostředky, lidskými zdroji a technologickými kapacitami převezme iniciativu.
Kdo by tedy měl regulovat AI?
Vládní orgány
Různí lidé, od spotřebitelů až po tech vůdci, doufají, že vláda bude regulovat AI. Veřejně financované instituce na to mají prostředky. Dokonce i Elon Musk a Sam Altman, dva hlavní tahouni závodu AI, věří, že někteří obavy o soukromí kolem AI jsou příliš nebezpečné na to, aby je řídící orgány přehlédly.
Vláda by se měla zaměřit na ochranu soukromí a občanských svobod svých voličů, pokud převezme regulaci AI. Kyberzločinci stále hledají způsoby, jak ve svých schématech využít systémy AI. Jednotlivci, kteří se v AI dobře neznají, se mohou snadno nechat zmást syntetizovanými hlasy, hluboce falešnými videi a online profily provozovanými roboty.
Jedním z hlavních problémů s vládou regulující umělou inteligenci je však to, že by to mohlo nechtěně potlačit inovace. AI je komplexní, vyvíjející se technologie. Pokud úředníci, kteří dohlížejí na pokyny pro nasazení, vývoj a školení, nepochopí, jak AI funguje, mohou dělat předčasné a neefektivní soudy.
Vývojáři umělé inteligence, technologické společnosti a laboratoře
Vzhledem k potenciálním překážkám, které by mohly vzniknout v důsledku vládní monitorovací umělé inteligence, by mnozí raději řídili regulaci technologických společností. Věří, že vývojáři by měli být odpovědní za technologii, kterou uvolňují. Samoregulace jim umožňuje řídit inovace a soustředit se na efektivní rozvoj těchto systémů.
Jejich hluboké znalosti AI jim navíc pomohou vytvořit spravedlivé a informované pokyny upřednostňující bezpečnost uživatelů, aniž by byla ohrožena funkčnost. Stejně jako u jakékoli technologie zefektivňuje monitorování odborné znalosti v tomto odvětví. Pověření neškolených úředníků k regulaci technologií, kterým sotva rozumí, může představovat více problémů než výhod.
Vezměte si jako příklad slyšení amerického Senátu v roce 2018 o zákonech na ochranu osobních údajů Facebooku. V této zprávě od Washington Post, uvidíte, že mnoho zákonodárců je zmateno základními funkcemi Facebooku. Pokud tedy americký Senát nevytvoří jediné oddělení technických specialistů, pravděpodobně nebudou kvalifikováni k regulaci tak pokročilého, neustále se měnícího systému, jako je AI.
Hlavním problémem s regulací technologických společností je však to, že pochybné korporace mohou zneužívat svou moc. Bez zasahování třetí strany si mohou v podstatě dělat, co chtějí.
Koneční uživatelé
Někteří se obávají, že vládní a soukromé subjekty budou zneužívat systémy AI. Nejsou si jisti, zda hrstce řídících orgánů poskytnout úplnou kontrolu nad tak výkonnými technologiemi, zejména proto, že AI se stále vyvíjí. Mohou nakonec bojovat o autoritu spíše než pracovat na účinné regulaci.
Ke zmírnění těchto rizik se skeptici domnívají, že koncoví uživatelé si zaslouží volnost při používání modelů umělé inteligence, jak chtějí. Říkají, že vládní orgány by měly zasahovat pouze tehdy, když uživatelé AI porušují zákon. Je to ambiciózní cíl, ale technicky by ho bylo možné dosáhnout, pokud by vývojáři AI s otevřeným zdrojovým kódem ovládli podíly na trhu.
To znamená, že toto nastavení znevýhodňuje jednotlivce, kteří nejsou technicky zdatní. Uživatelé jsou zodpovědní za nastavení omezení ve svých systémech – bohužel ne každý má na to prostředky.
Je také krátkozraké odstranit proprietární modely z trhu. Šíření open-source modely umělé inteligence mají několik pozitivních i negativních dopadů; u některých převažují nevýhody.
Další subjekty, které hrají roli v regulaci AI
Ačkoli hlavní subjekty budou v čele regulace AI, existují orgány, které hrají významnou roli:
Média hrají zásadní roli při utváření vnímání umělé inteligence veřejností. Informují o vývoji v oboru, sdílejí nové nástroje, přinášejí povědomí o škodlivém použití umělé inteligence a zpovídají odborníky o relevantních obavách.
Většina faktů, které koncoví uživatelé vědí o AI, v podstatě pochází z médií. Zveřejňování nepravdivých údajů, ať už záměrně nebo ne, způsobí nevratné škody – nemůžete podceňovat, jak rychle se dezinformace šíří.
2. Nevládní organizace
Několik neziskových organizací se zaměřuje na ochranu soukromí a občanských svobod uživatelů AI. Vzdělávají veřejnost prostřednictvím bezplatných zdrojů, obhajují nové politiky, spolupracují s vládními úředníky a vyjadřují přehlížené obavy.
Jediným problémem neziskových organizací je, že obvykle nemají dostatek zdrojů. Protože nejsou napojeni na vládu, spoléhají na soukromé žádosti a dary pro každodenní operace. Je smutné, že pouze několik organizací získává dostatečné finanční prostředky.
3. Asociace technického průmyslu
Asociace technologického průmyslu zaměřené na umělou inteligenci mohou zastupovat práva a zájmy veřejnosti. Stejně jako neziskové organizace spolupracují se zákonodárci, zastupují dotčené jednotlivce, prosazují spravedlivou politiku a přinášejí povědomí o konkrétních problémech.
Rozdíl je však v tom, že často mají vazby na soukromé společnosti. Jejich členové stále žádají, ale obvykle dostanou dostatek finančních prostředků od svých mateřských organizací, pokud budou přinášet výsledky.
4. Akademické instituce
Přestože AI přináší několik rizik, je ze své podstaty neutrální. Všechny předsudky, problémy s ochranou soukromí, bezpečnostní chyby a potenciální kybernetické aktivity pocházejí od lidí, takže AI sama o sobě není důvod se bát.
Ale jen málokdo už chápe, jak fungují moderní modely umělé inteligence. Mylné představy zkreslují vnímání umělé inteligence a udržují neopodstatněné obavy, jako je AI převzetí lidstva nebo krádež pracovních míst.
Akademické instituce by mohly zaplnit tyto mezery ve vzdělávání prostřednictvím dostupných zdrojů. O moderních LLM a NLP systémech zatím není příliš mnoho odborných prací. Veřejnost může používat umělou inteligenci zodpovědněji a bojovat s kyberzločinem, pokud zcela pochopí, jak funguje.
5. Orgány činné v trestním řízení
Orgány činné v trestním řízení by měly počítat s tím, že se setkají s více Kybernetické útoky s umělou inteligencí. S rozšiřováním generativních modelů mohou podvodníci rychle syntetizovat hlasy, vytvářet hluboce falešné obrázky, škrábat osobně identifikovatelné údaje (PII), a dokonce vytvořit zcela nové persony.
Většina agentur není vybavena k tomu, aby tyto zločiny zvládla. Měli by investovat do nových systémů a školit své důstojníky v oblasti moderní kybernetické kriminality; jinak budou mít problém chytit tyto podvodníky.
Budoucnost regulace AI
Vzhledem k rychlé povaze umělé inteligence je nepravděpodobné, že by ji řídil jediný řídící orgán. Ano, technologickí lídři budou mít větší moc než spotřebitelé, ale různé subjekty musí spolupracovat na řízení rizik AI, aniž by bránily pokroku. Nejlepší je nastavit kontrolní opatření nyní, zatímco umělá obecná inteligence (AGI) je stále vzdáleným cílem.
To znamená, že regulace AI je stejně vzdálená jako AGI. Mezitím musí uživatelé dodržovat bezpečnostní postupy pro boj s hrozbami řízenými umělou inteligencí. Dobré návyky, jako je omezení počtu lidí, se kterými se spojujete online, a zabezpečení vašich digitálních PII, již jdou dlouhou cestou.