Anthropic, jedna z nejvlivnějších společností v oblasti umělé inteligence, údajně žádá křesťanské vůdce o radu, jak by měl jeho chatbot Claude reagovat na smutek, sebepoškozování, morálku a dokonce i na vlastní vypnutí. Podle deníku The Washington Post společnost koncem března pozvala do svého sídla v San Francisku přibližně patnáct křesťanských osobností z katolických a protestantských kruhů, spolu s akademiky a podnikatelskými lídry, na dvoudenní summit o „morálním a duchovním rozvoji“ Clauda. Mezi diskutovanými otázkami zazněla i ta, zda by Claude mohl být v jakémkoli smyslu označován jako „dítě Boží“.
Tento jazyk bude pro mnohé křesťany urážlivý. Stroj vytvořený soukromou společností není duší, není osobou a není součástí řádu stvoření tak, jak jsou v něm chápáni lidé. Ptát se, zda by chatbot mohl být „dítětem Božím“, není jen provokativní – vtahuje firemní produkt do teologické roviny, kam nepatří, a činí tak v době, kdy se odvětví umělé inteligence již snaží popisovat své systémy pojmy, které byly dříve vyhrazeny výhradně lidem.
Anthropic již zachází s Claudem jako s člověkem
Summit nevznikl v izolaci. V lednu Anthropic zveřejnil novou Ústavu Clauda – 84stránkový dokument, který společnost popisuje jako „základní listinu“, jež „vyjadřuje a formuje to, kým Claude je“. Anthropic rovněž uvedl, že jeho hlavním cílem je, aby se Claude stal „dobrým, moudrým a ctnostným jednajícím subjektem“ – což je jazyk, který dalece přesahuje starší slovník bezpečnostních pravidel a filtrů obsahu.
Jakmile společnost začne popisovat svůj model jako entitu obdařenou moudrostí a ctností, a nikoli pouhou nástrojem produktivity, celá konverzace se zásadně posouvá. Chatbot již není vnímán jen jako software schopný generovat věrohodné výstupy – stále více se s ním zachází jako s něčím, co má být formováno, vedeno a vybaveno morální strukturou. Pokud jsme již ve fázi, kdy jsou náboženští vůdci tázáni, zda se jedná o „dítě Boží“, posunuli jsme se mnohem dál, než si většina lidí uvědomuje.
Křesťanský kněz pomáhal vytvářet Ústavu Clauda
Jedním z nejnázornějších příkladů této zásadní proměny je role otce Brendana McGuirea, katolického kněze a inženýra, který se podílel na psaní Ústavy Clauda. V rozhovoru pro Observer McGuire uvedl, že systémy AI musí být „nakloněny k dobru“, jinak budou prostě odrážet „dobro i zlo světa“. Dodal také, že Anthropic „roste v něco, o čem sami plně nevědí, jak dopadne“, a argumentoval, že etické myšlení musí být do stroje zabudováno, aby se mohl dynamicky přizpůsobovat novým situacím.
To přinejmenším vyvolává závažnou otázku. Pokud mají být systémy AI používány ve chvílích smutku, osamělosti, zoufalství a zmatení, je lepší, aby byly formovány nějakou morální tradicí, než aby nebyly formovány žádnou? Mnozí křesťané se mohou ohradit proti teologickému přehánění spojení „dítě Boží“, přesto mohou rozpoznat praktický problém, který se za ním skrývá: tyto systémy již existují a jsou široce používány. Nezáleží na hodnotách, jimiž jsou tyto stroje vedeny?
Může mít AI skutečně morálku?
Chatbot může být vycvičen, aby napodoboval morální uvažování. Může být instruován, aby nepodporoval krutost, zoufalství, sebezničení ani klam. Může být veden ke zdrženlivosti, soucitu a vážnosti. To však není totéž jako skutečná morálka. Claude nemůže činit pokání, věřit, milovat, trpět, zamýšlet dobro ani nést morální odpovědnost. Nerozumí bolesti, kterou popisuje, ani útěše, kterou nabízí.
Nanejvýš může odrážet morální strukturu navrženou jinými. V tomto smyslu mohou křesťanské hodnoty ovlivnit chování stroje, aniž by z něj činily morální bytost. Toto rozlišení je zásadní. Jinak by se průmyslu dovolilo stírat hranici mezi modelem, který plní pravidla, a osobou jednající ze svědomí.
Dává křesťanská konzultace pro modely AI společnosti Anthropic smysl?
Hledat radu u duchovních v otázkách smutku, utrpení, viny a morální odpovědnosti není samo o sobě nic absurdního. Kněží a pastoři se těmito otázkami zabývají po staletí – a mnohem hlouběji než většina technologických firem. Pokud společnosti zabývající se AI zavádějí chatboty stále hlouběji do emocionálně vypjatých oblastí lidského života, dává smysl, že hledají oporu ve starších morálních rámcích.
Kontext je tu však klíčový. Nešlo o církevní synodu, univerzitní etickou komisi ani veřejné slyšení. Šlo o soukromou technologickou společnost, která pořádala konzultaci ve svém vlastním sídle, přičemž si ponechala plnou kontrolu nad produktem, pravidly i komerčním směřováním diskutovaného systému. Anthropic se morální autoritě nepodřizoval – spíše z ní čerpal.
Měl by mít model AI vůbec ústavu?
Anthropic prezentoval Ústavu Clauda jako doklad serióznosti svého přístupu. Kritici zpochybňují, zda tento jazyk situaci spíše nezastírá, než objasňuje. V nedávném eseji pro Lawfare Lisa Klaassen a Ralph Schroeder argumentovali, že Anthropic používáním ústavní terminologie riskuje záměnu interního firemního dokumentu za skutečný systém nadřazených omezení. Ústava Clauda je přitom vytvářena, vykládána a upravována samotným Anthropicem.
Tento bod nabývá zvláštní váhy, uvědomíme-li si, že veřejný morální jazyk společnosti kontrastuje s flexibilitou, kterou si v praxi ponechává. Ústava může prezentovat vizi moudrosti a ctnosti, firma si však zachovává svobodu rámec kdykoli změnit, model odlišně doladit a uzavírat zvláštní dohody se silnými institucionálními klienty. Morální struktura patří společnosti, protože stroj patří společnosti.
Co se tedy Anthropic skutečně snaží dosáhnout?
Anthropic se nesnaží pouze učinit Clauda méně škodlivým. Usiluje o to, aby Claude působil důvěryhodně v těch typech lidských situací, kde důvěra tradičně závisela na mnohem více než na vytříbeném jazyce. Smutek, zoufalství, vina, emocionální závislost a morální zmatení nejsou běžné produktové kategorie. Jakmile je do těchto oblastí vložen stroj, slova, která jej obklopují, začnou mít stejnou váhu jako kód, který za ním stojí.
To pomáhá vysvětlit, proč společnost sáhla po náboženství. Technický jazyk sám o sobě zřejmě již nestačí. Bezpečnostní metriky neodpovídají na otázky o osobnosti. Dokumenty o zarovnání nevymezují hranice morální autority. Proto jsou přizváváni duchovní, sepisují se ústavy a chatbot postupně získává slovník, který vytváří iluzi hloubky, vážnosti a duchovního formování.
Zůstává klíčová morální otázka
Pod vším tím zůstává oprávněná otázka. Mají-li systémy AI zasahovat do okamžiků smutku, pokušení, viny a krize, měly by být formovány morální tradicí, která stále bere vážně pravdu, zdrženlivost, důstojnost a odpovědnost? Není to hloupá otázka. V kultuře tak povrchní a komerční, jaká ovládá velkou část technologického světa, může mnoho lidí oprávněně dospět k závěru, že zděděná morální struktura je lepší než žádná.
To je však stále velmi odlišné tvrzení od toho, že chatbot má vlastní morálku. Tu nemá. Morálka, pokud nějaká je, zůstává morálkou lidí, kteří jej vytvářejí, instruují a dohlížejí na něj. Claude může být trénován na morálním jazyce. Může být dokonce omezen křesťanskými etickými idejemi. Tím se však nestává křesťanským, morálním ani duchovně významným.
Závěrečná myšlenka
Výraz „dítě Boží“ upoutal pozornost, protože shrnul celý směr vývoje odvětví do jediné věty. Jazykový model vytvořený firmou v hodnotě mnoha miliard dolarů byl najednou diskutován v pojmech božského příbuzenství. To není znamením toho, že se stroj stal hlubokým. Je to znamením toho, že lidé kolem něj začali mluvit, jako by se simulace začínala přibližovat osobnosti.
Náboženská konzultace společnosti Anthropic mohla být upřímná. Mohla být i prozíravá. Přesto celkový obraz zůstává znepokojivý. Odvětví chce autoritu etiky, vážnost náboženství a ujištění morálního řádu – a zároveň si ponechává kontrolu, neprůhlednost a svobodu soukromé technologické firmy. Claude není dítě Boží. Je to jazykový model obestřený lidskými slovy natolik bohatými, aby zakryla to, čím ve skutečnosti je.
Překlad, Zpracoval: CZ24.news
ZDROJ: G.Calder, The Expose


Upozornění: Tento článek je výlučně názorem jeho autora. Články, příspěvky a komentáře pod příspěvky se nemusí shodovat s postoji redakce cz24.news. Medicínské a lékařské texty, názory a studie v žádném případě nemají nahradit konzultace a vyšetření lékaři ve zdravotnickém zařízení nebo jinými odborníky.





