Myšlenka, že technologie umělé inteligence musí být regulovány, je běžný názor. Na tom se shoduje většina vlád, vývojářů produktů AI a dokonce i běžných uživatelů produktů AI. Bohužel, nejlepší způsob, jak regulovat toto rychle rostoucí pole, je nevyřešená hádanka.

Pokud zůstanou bez kontroly, technologie AI mohou negativně narušit náš způsob života a ohrozit naši existenci. Jak se ale mohou vlády orientovat v labyrintu výzev, které s sebou tato rychle se vyvíjející oblast přináší?

1. Předpisy o ochraně osobních údajů a ochraně osobních údajů

Jedním z hlavních problémů s technologiemi AI je soukromí a bezpečnost dat. Systémy umělé inteligence jsou stroje náročné na data. Potřebují data k provozu, více dat, aby byli efektivní, a ještě více dat ke zlepšení. I když to není problém, způsob, jakým jsou tato data získávána, jejich povaha a jak jsou zpracovávány a ukládány, je jedním z největších témat, která se týkají nařízení AI.

S ohledem na to je logickou cestou zavedení přísných předpisů o ochraně osobních údajů, kterými se data řídí shromažďování, ukládání a zpracování, jakož i práva jednotlivců – jejichž data jsou používána – na přístup a kontrolu jejich údaje. Otázky, které by tyto předpisy pravděpodobně řešily, jsou:

instagram viewer

  • Jaký druh dat lze shromažďovat?
  • Měla by být některá soukromá data v AI považována za tabu?
  • Jak by měly společnosti AI nakládat s citlivými osobními údaji, jako jsou zdravotní záznamy nebo biometrické informace?
  • Mělo by se od společností AI požadovat, aby zavedly mechanismy pro jednotlivce, aby mohli snadno požádat o vymazání nebo opravu svých osobních údajů?
  • Jaké jsou důsledky pro společnosti AI, které nedodržují předpisy o ochraně osobních údajů? Jak by mělo být dodržování sledováno a jak by mělo být zajištěno prosazování?
  • Možná nejdůležitější je, jaký standard by měly společnosti AI zavést, aby zajistily bezpečnost citlivé povahy informací, které mají?

Tyto otázky a několik dalších tvořily jádro proč byl ChatGPT dočasně zakázán v Itálii. Pokud se tyto obavy nevyřeší, prostor umělé inteligence může být divokým západem pro ochranu osobních údajů a italský zákaz se může ukázat jako vzor pro zákazy ze strany jiných zemí po celém světě.

2. Vývoj etického rámce umělé inteligence

Společnosti AI se často chlubí svým závazkem dodržovat etické zásady při vývoji systémů AI. Alespoň na papíře jsou všichni zastánci zodpovědného vývoje AI. V médiích představitelé Googlu zdůrazňovali, jak společnost bere bezpečnost a etiku umělé inteligence vážně. Podobně „bezpečná a etická umělá inteligence“ je mantrou generálního ředitele OpenAI, Sama Altmana. Ty jsou docela chvályhodné.

Ale kdo určuje pravidla? Kdo rozhoduje, které etické zásady AI jsou dostatečně dobré? Kdo rozhoduje o tom, jak vypadá bezpečný vývoj AI? Právě teď se zdá, že každá společnost zabývající se umělou inteligencí má svůj vlastní směr v odpovědném a etickém vývoji umělé inteligence. OpenAI, Anthropic, Google, Meta, Microsoft, všichni. Jednoduše spoléhat na to, že společnosti AI udělají správnou věc, je nebezpečné.

The důsledky nekontrolovaného prostoru AI mohou být katastrofální. Nechat jednotlivé společnosti rozhodnout, jaké etické pokyny přijmout a které zrušit, se podobá náměsíčné cestě do apokalypsy umělé inteligence. Řešení? Jasný etický rámec AI, který zajišťuje:

  • Systémy AI nespravedlivě neznevýhodňují ani nediskriminují jednotlivce nebo určité skupiny na základě rasy, pohlaví nebo socioekonomického postavení.
  • Systémy umělé inteligence jsou bezpečné, zabezpečené a spolehlivé a minimalizují riziko nezamýšlených následků nebo škodlivého chování.
  • Systémy umělé inteligence jsou vytvářeny s ohledem na širší společenský dopad technologií umělé inteligence.
  • Aby si lidé udrželi konečnou kontrolu nad systémy AI a jejich rozhodování transparentně.
  • Systémy AI jsou záměrně omezeny způsoby, které jsou výhodné pro lidi.

3. Specializovaná regulační agentura

Vzhledem k potenciálnímu dopadu na lidskou civilizaci se diskuse o bezpečnosti umělé inteligence obvykle přibližuje riziku zdravotní krize nebo jaderné katastrofy. Předcházení potenciálním jaderným incidentům vyžaduje specializovanou agenturu, jako je americká NRC (Nuclear Regulatory Commission). Aby se zabránilo riziku nebezpečných zdravotních krizí, je nutné zřídit FDA (Food and Drug Administration)

Podobně, aby se zajistilo, že se věci v prostoru umělé inteligence nebudou pokazit, je nezbytná specializovaná agentura podobná FDA a NRC, protože umělá inteligence pokračuje v agresivním pronikání do všech oblastí našeho života. Bohužel otázka regulace umělé inteligence v zemi je ošemetná. Práce jakékoli specializované regulační agentury bude bez přeshraniční spolupráce pravděpodobně bolestně těžká. Stejně jako americká NRC (Komise pro jadernou regulaci) musí pracovat ruku v ruce s Mezinárodní organizací pro atomovou energii Aby agentura (MAAE) byla co nejlepší, jakákoli specializovaná vnitrostátní regulační agentura pro umělou inteligenci by také potřebovala mezinárodní analog.

Taková agentura by byla zodpovědná za následující:

  • Vývoj předpisů AI
  • Zajištění dodržování a vymáhání
  • Dohled nad procesem etického přezkoumání projektů AI
  • Spolupráce a mezistátní spolupráce v oblasti bezpečnosti a etiky umělé inteligence

4. Řešení problémů s autorským právem a duševním vlastnictvím

Stávající autorské zákony a právní rámce se tváří v tvář umělé inteligenci hroutí. Způsob, jakým jsou nástroje AI, zejména generativní nástroje AI, navrženy, z nich dělá dojem, že jde o veřejně podporovaný stroj na porušování autorských práv, se kterým nemůžete nic dělat.

Jak? Mnoho dnešních systémů umělé inteligence je trénováno pomocí materiálů chráněných autorským právem. Víte, články chráněné autorským právem, skladby chráněné autorským právem, obrázky chráněné autorským právem atd. Tak to mají nástroje rády ChatGPT, Bing AI a Google Bard mohou dělat úžasné věci, které dělají.

I když tyto systémy jasně využívají duševního vlastnictví lidí, způsob, jakým to tyto systémy umělé inteligence dělají se neliší od toho, když člověk čte knihu chráněnou autorskými právy, poslouchá skladby chráněné autorskými právy nebo se dívá na chráněné autorskými právy snímky.

Můžete si přečíst knihu chráněnou autorskými právy, naučit se z ní nová fakta a tato fakta použít jako základ pro svou vlastní knihu. Můžete si také poslechnout skladbu chráněnou autorskými právy pro inspiraci k vytvoření vlastní hudby. V obou případech jste použili materiály chráněné autorským právem, ale to nutně neznamená, že odvozený produkt porušuje autorská práva originálu.

I když je to logické vysvětlení, které vysvětluje nepořádek, který AI dělá se zákony o autorských právech, stále to poškozuje vlastníky autorských práv a duševního vlastnictví. Vzhledem k tomu jsou nutné předpisy:

  • Jasně definujte odpovědnost a odpovědnosti všech stran zapojených do životního cyklu systému AI. To zahrnuje objasnění rolí každé strany, od vývojářů AI po koncové uživatele, aby byla zajištěna odpovědnost strany nesou odpovědnost za jakékoli porušení autorských práv nebo porušení duševního vlastnictví ze strany AI systémy.
  • Posílit stávající rámce autorských práv a možná zavést zákony o autorských právech specifické pro umělou inteligenci.
  • Aby byla zajištěna inovace v prostoru umělé inteligence a zároveň zachována práva původních tvůrců, AI předpisy by měly nově definovat koncepty fair use a transformativní práce v kontextu Obsah generovaný umělou inteligencí. Jsou zapotřebí jasnější definice a pokyny, aby se zajistilo, že se prostor umělé inteligence může nadále zlepšovat a zároveň respektovat hranice autorských práv. Je nezbytné najít rovnováhu mezi inovacemi a zachováním práv tvůrců obsahu.
  • Jasné cesty pro spolupráci s držiteli práv. Pokud budou systémy umělé inteligence přesto využívat duševní vlastnictví lidí, měly by existovat jasné cesty nebo rámce pro vývojáře umělé inteligence a vlastníci práv spolupracovat, zejména pokud jde o finanční kompenzace, pokud je odvozeným dílem takového duševního vlastnictví komercializováno.

Regulace AI je zoufale potřebná oprava

Zatímco umělá inteligence se ukázala jako slibná oprava mnoha našich společenských problémů, samotná AI se rychle stává problémem, který potřebuje naléhavou opravu. Je čas udělat krok zpět, zamyslet se a provést nezbytné opravy, abychom zajistili pozitivní dopad AI na společnost. Zoufale potřebujeme naléhavou rekalibraci našeho přístupu k budování a používání systémů umělé inteligence.