Diskuse o AI sentience nejsou nic nového, ale zprávy o AI LaMDA od Googlu rozdmýchaly plameny. Poté, co inženýr prohlásil, že robot je při vědomí, dokonce má duši, znovu se objevily některé známé otázky.

Může být AI jako LaMDA skutečně vnímavá nebo sebevědomá, a pokud ano, jak to poznáte? Záleží na tom?

Co je LaMDA?

LaMDA, zkratka pro Language Model for Dialogue Applications, se poprvé objevila v roce 2021 na vývojářské konferenci společnosti Google. Pokročilý systém umělé inteligence má pomoci vybudovat další, menší chatboty. Když jej Google poprvé představil, oznámil plány na jeho integraci do všeho, což pomůže službám jako Google Assistant a Search, aby se cítily lidštější nebo alespoň přirozenější.

Když inženýr společnosti Google Blake Lemoine hovořil s LaMDA, aby zjistil, zda používá nenávistné projevy, přišel s jiným dojmem. Lemoine tvrdil, že LaMDA je vnímavý, a kdyby nevěděl, že je to robot, myslel by si, že je to osmileté dítě.

Po rozhovorech s LaMDA se Lemoine pokusil dokázat, že to bylo vědomé, a hájit to, co považoval za jeho zákonná práva. V reakci na to Google umístil Lemoine na placenou administrativní dovolenou za porušení dohod o mlčenlivosti.

Je LaMDA skutečně Senzitivní?

Je tedy LaMDA skutečně vnímavý? Většina odborníků, kteří se touto otázkou zabývali, je skeptická. LaMDA je vysoce pokročilá chatovací platforma AI, která analyzuje biliony slov z internetu, takže dokáže znít jako skutečný člověk.

Není to poprvé, co jedna z AI Googlu oklamala lidi, aby si mysleli, že je to člověk. V roce 2018 Google předvedl svou Duplex AI tím, že zavolal do restaurace a zarezervoval si stůl. Zdá se, že zaměstnanec na druhém konci nikdy nepochyboval, že mluví s nějakou osobou.

Definovat vnímání je obtížné, ačkoli většina lidí pochybuji, že AI dosáhla tohoto bodu dosud. Důležitou otázkou však nemusí být, zda je LaMDA skutečně vnímavá, ale jaký je v tom rozdíl, když dokáže oklamat lidi, aby si mysleli, že je.

Možné právní důsledky LaMDA

Situace LaMDA vyvolává mnoho právních a etických otázek. Za prvé, někteří lidé se mohou ptát, zda měl Google právo dát Lemoine dovolenou za to, že o tom promluvil.

Podle paragrafu 740 newyorského pracovního práva chrání ochrana oznamovatelů zaměstnance před takovými důsledky, pokud se domnívají, že praktiky jejich zaměstnavatele porušují zákon nebo představují významné riziko pro veřejnost bezpečnost. Předpokládaný cit LaMDA tento zákonný požadavek zcela nesplňuje, ale měl by?

Poskytování práv AI je ošemetné téma. Zatímco AI umí tvořit věci a vypadat lidsky, můžete se dostat do komplikovaných situací, pokud mají tyto stroje právní ochranu. Zákonná práva fungují kolem odměn a trestů, které neovlivňují AI, což komplikuje spravedlnost.

Pokud samořídící auto srazí chodce, je AI vinna, pokud s ní zákon zachází jako s člověkem? A pokud ano, nedává to oběti striktně spravedlnost, protože technicky nemůžete AI potrestat stejným způsobem jako člověka.

Další otázkou, která u LaMDA a podobných AI chatbotů vyvstává, je jejich bezpečnost. Pokud se tito roboti zdají přesvědčivě skuteční, lidé jim mohou více věřit a být ochotni je dát citlivější informace. To otevírá dveře spoustě obav o soukromí a bezpečnost, pokud se tato technologie dostane do nesprávných rukou.

AI zavádí složité etické otázky

Umělé inteligence jako LaMDA jsou stále sofistikovanější a realističtější. Jak tento trend roste, společnosti a zákonodárci by měli přehodnotit, jak zacházejí s AI a jak by tato rozhodnutí mohla ovlivnit spravedlnost a bezpečnost.

Jak to tak je, Google LaMDA AI nemusí být vnímavý, ale je dost dobrý na to, aby přiměl lidi, aby si mysleli, že ano, což by mělo vyvolat určité poplachy.