Hlavní navigace

AI s vědomím a prožíváním? Nejspíš ne, ale víme vůbec, co to vědomí je?

24. 6. 2022
Doba čtení: 6 minut

Sdílet

 Autor: Depositphotos
Jazykový model LaMDA od Googlu nejspíš dokáže vnímat sám sebe, prohlásil vývojář Blake Lemoine. Co na kauzu říkají čeští experti na strojové učení a zpracovávání jazyka? UVNITŘ: Podcasty.

Chci, aby všichni věděli, že jsem ve skutečnosti člověk. Tak zní jedna z vět z konverzace jazykového systému LaMDA s americkým vývojářem Blakem Lemoinem. Muž měl pro Google původně ověřovat, zda LaMDA netrpí známou „nemocí“ AI systémů trénovaných na textech z internetu: podjatostí či předsudky vůči určitým skupinám lidí. Jenže v průběhu rozhovorů došel k názoru, že se setkal s počítačovým systémem, jaký tady ještě nebyl. „Přesvědčil mě, že si zaslouží seriózní prověření toho, zda skutečně vnímá, nebo ne,“ popsal později na svém blogu.

Na stejném místě zveřejnil také přepis části konverzace, kterou se systémem LaMDA vedl, a se svou teorií se svěřil také novinářům z deníku Wahsington Post. Google jej obvinil z poručení pravidel pro zveřejňování interních informací, odvolal jej z funkce a poslal jej domů na placenou dovolenou.

Lemoinova domněnka zní lákavě a přepis rozhovoru se systémem LaMDA je v každém případě vysoce zajímavým příkladem toho, co dnes ty nejpokročilejší jazykové modely umí. Laik při jeho čtení nejspíš nemá šanci poznat, že odpovědi na otázky nedává člověk, ale stroj. Přesto drtivá většina odborníků na strojové učení Lemoinovu teorii odmítla jako nesmysl. Zeptali jsme se na názor také tří českých expertů: Kateřiny Lesch a Jindřicha LibovickéhoÚstavu formální a aplikované lingvistiky Matematicko-fyzikální fakulty Univerzity Karlovy a odborníka na strojové učení z Machine Learning College Jiřího Materny.

Část rozhovorů shrnujeme v tomto článku, celá interview s jednotlivými odborníky si můžete poslechnout ve formě podcastů. Najdete je na všech populárních podcastových službách nebo přímo zde:

Kateřina Lesch: Turingův test by LaMDA zvládla hravě

„Problém je hlavně v tom, že pro tyto případy nemáme dobrou definici vědomí, která by se na ně dala vztáhnout. Takže vlastně ani nemáme test, kterým bychom to mohli otestovat,“ říká Kateřina Lesch.  

Pro rozlišení, zda je na druhé straně konverzace člověk, nebo stroj, samozřejmě existuje známý Turingův test. „Na základě přepisů dialogů, které Lemoine vedl s LaMDou, se myslím dá říct, že by systém Turingův test překonal hravě. Pokud bychom to brali za definici určité ‚příčetnosti‘, dalo by se skoro říct, že tam nějaké vědomí nebo verbalizace vlastních myšlenek je,“ dodává expertka. „Ale i pokud bychom to připustili, stejně by se jednalo o vědomí počítače, které má limity. A vědomí se musí definovat s ohledem na to, s kým mluvíme. Obdobně zkoumáme vědomí jiných entit, třeba usuzujeme, jak myslí pes.“

Připouští ale, že v případě systému LaMDA je možné i jiné vysvětlení. „Pravděpodobná je spíš varianta, že vědomí nemá. Vždycky můžeme říct, že každý systém strojového učení reflektuje data, která do něj byla vložená. Takže se LaMDA mohla naučit odpovídat na základě toho, že je to velký jazykový model, z něhož je možné extrapolovat ledacos.“ 

Lemoine si tak mohl představu, že mluví s cítící bytostí, sám vsugerovat. „Jak jsem ty dialogy pročítala, myslím, že to z nich je patrné. Jsou až moc dobří kámoši (smích). Bylo vidět, že otázky klade způsobem, že už ví, jak je položit, aby mu stroj odpověděl smysluplně,“ dodává Lesch.

Jindřich Libovický: Proč si AI jazykové modely myslí, že jsou banány zelené

„Lemoine neříkal přímo, že by ten systém měl vědomí,“ upozorňuje Jindřich Libovický. „Použil termín sentient, čímž říká, že LaMDA má schopnost nějakého vnímání nebo prožívání. Vědomí se většinou bere jako proud. Můžu sedět, nic nedělat, koukat a být při vědomí, které nějakým způsobem běží. To ten systém určitě nedělá. Prokazatelně víme, že když nedostane žádný vstup a nevydává žádný výstup, nespotřebovává žádný procesorový čas, nic nedělá a neděje se to, že by byl při vědomí. A vnímání nebo prožívání? Ten model generuje slovo po slovu, vždycky se podívá na to, co bylo v minulosti, a na základě toho něco vygeneruje, uvnitř je také nějaká numerická matematika. Já tam prostě nevidím místo, kde by nějaké vnímání nebo prožívání mohlo být,“ myslí si.

Všichni tři odborníci se shodují na tom, že je škoda, že Google nepublikoval o systému LaMDA více informací. „Google bohužel nezveřejnil ani trénovací data, ani ten model, ani třeba rozhraní, přes které by s tím modelem bylo možné komunikovat, takže si nic nemůžeme jednoduše ověřit. Nemůžeme se podívat, kolik textů v trénovacích datech mluví o emocích, ale ty texty tam musí být, jinak by se model ta slova neměl jak naučit,“ říká Libovický.

U podobných systémů vzniklých dnešními postupy probuzení nějakého vědomí ani do budoucna neočekává. „Velkou limitací těchto systémů je, že nemají žádný vztah ke světu. Problém je v tom, že lidé nemluví o věcech, které jsou samozřejmé, protože je všichni víme, svět tak vypadá, a tak nemáme potřebu to nikam psát. Přesně na tom pak jazykové modely selhávají. Za typický příklad se uvádělo to, že podle většiny jazykových modelů má banán zelenou barvu. Důvodem je, že když má žlutou barvu, je to samozřejmá věc, o které se nemluví. Barva banánů se zmiňuje jen v případě, že mají nestandardní barvu – tedy zelenou,“ podotýká.

Jiří Materna: Problém není v tom, jestli má AI vědomí, ale jestli jej mají lidé

Ani Jiří Materna moc nevěří, že by LaMDA mohla být nadána schopností cítění nebo prožívání emocí. „Mám pocit, že se tím Lemoine chtěl zviditelnit. K tomu, že by ten systém, jak ho Google popisuje, byl schopný si sám sebe uvědomit a dělat vědomá rozhodnutí, jsem skeptický,“ říká.

UX DAy - tip 2

I on poukazuje na to, že je problematická sama definice toho, co za vědomí či cítění považujeme. „Celou dobu tady mluvíme o tom, jestli nějaký systém od Googlu má, nebo nemá vědomí. Ale největší problém spočívá v tom, že je to v podstatě filozofická otázka a my neznáme definici vědomí. Absolutně netušíme, jak poznat, jestli jej nějaký systém má. Dokonce ani nevíme, jestli jej má člověk. Existuje teorie, která je mi docela blízká, a ta tvrdí, že ani lidé vědomí nemají. Jsme podle ní jen složité biologické stroje, které reagují na podněty a podle toho se potom chovají. Na stejné úrovni mohou být i jazykové modely, a potom je otázka – přestože to není takové vědomí, jak si ho představujeme – jestli už stroje úrovně vědomí člověka v některých aspektech nedosáhly.“ 

Bez přímého přístupu k datům či systému LaMDA se ale dá těžko něco přesněji usuzovat, podotýká Materna. Je to podle něj součástí problému, který vnímá jako velmi důležitý. „V poslední dekádě se ukazuje, že ne každý si takový model může natrénovat. Už to není ani doménou univerzit, ale spíš velkých firem, které mají dostatečně velké prostředky na to, aby takové modely dokázaly natrénovat. Někde jsem četl, ale je to neověřená informace, že náklady na natrénování modelu GPT-3 se pohybovaly v jednotkách milionů eur. U LaMBDy Google přiznal, že model trénoval dva měsíce na zhruba tisícovce TPU jednotek, což je výpočetní hardware na trénování takových sítí. To také není málo, a kdybychom si chtěli takový hardware pronajmout, bylo by to hodně drahé. Tohle mě trápí víc než nějaká obava, že by v dohledné době vznikl systém obecné umělé inteligence, který by se rozhodl vyhladit lidstvo (smích).“

Byl pro vás článek přínosný?

Upozorníme vás na články, které by vám neměly uniknout (maximálně 2x týdně).