Green Deal neprosazovali inženýři na základě výpočtů a podkladů. Je to politické rozhodnutí |

Green Deal neprosazovali inženýři na základě výpočtů a podkladů. Je to politické rozhodnutí |


SU/VLADIMÍR MAŘÍK

„Systémy s umělou inteligencí se stanou našimi asistenty. Budou nám pomáhat při organizování dne, psaní dopisů a realizaci mnoha rutinních úkolů,“ říká profesor Vladimír Mařík, a obavy z rychlého nahrazení lidí roboty uklidňuje odkazem na předchozí technologické revoluce, které vytvořily více pracovních míst, než o kolik jsme přišli. Jiná otázka ale je, co tyto změny udělají s etickými normami naší společnosti? Jak zajistíme, že AI bude používána způsobem, který respektuje naše hodnoty a práva? A tak si při tomto setkání budeme povídat hlavně o tom, jak umělá inteligence může ovlivnit naši svobodu, soukromí a základní lidská práva. Zda lze regulovat a kontrolovat používání AI, aby sloužila lidstvu, a nepřinesla nechtěné následky, které nemusejí spočívat jen v raketově rostoucí spotřebě elektrické energie.

Martina: Vím, že třeba Německo se k rozvoji umělé inteligence také velmi upíná, a jdou na to – podle mě – velmi zvláštním způsobem, vzhledem k tomu, že utlumili jaderné elektrárny. Myslíte si, že i tam to někdo dokázal spočítat, nebo opravdu šlo jenom o to zavřít jaderné elektrárny, aby se Angela Merkel zavděčila Zeleným a vyhrála volby v oblasti, kde dosud měli Zelení navrch? Teď vás nechci dostávat do nějaké politické debaty, ale přijde vám, že to je spočítané inženýry, odborníky? Nebo si tady prostě rozvíjíme umělou inteligenci, aniž by nás napadlo, jakým způsobem – a na co – bude jednou fungovat? A to včetně Německa, včetně zbytku Evropy?

Vladimír Mařík: To je otázka Green Dealu. Všimněte si, kdo prosazoval Green Deal, a kdo ho prosazoval za hranici únosnosti – to nebyli žádní inženýři. První tři úrovně Evropské unie nemají žádného inženýra, to nebylo podložené dokumenty, spočtenými modely, to prostě bylo politické rozhodnutí. A stejně tak si myslím, že do značné míry to bylo politické rozhodnutí v Německu, a uvidíme, jak se to tam bude se zdroji vyvíjet dál. Oni se zatím tváří, že mají dost větru a sluníčka, ale spotřeba roste: Roste u elektromobilů, roste u informatických systémů, znalostních systémů. Čili, možná časem bude možnost zpracování dat pomocí umělé inteligence obchodní komoditou. A možná, že země, kde bude hodně sluneční energie, jako je třeba saharská Afrika, budou nejlepší k tomu, aby tam byly umístěny stroje, protože tam bude dostatek energie, a skoro zadarmo. A když jim dodáme baterie, tak budou pracovat i v noci. Možná, že to bude cesta kupředu. Ale my asi zemí s levnou energií v budoucnu nebudeme.

Martina: Což by zase na druhou stranu mohla být dobrá zpráva pro ty, kdo mají z rozvoje umělé inteligence strach, protože podle toho, co říkáte, je její rozvoj jedna věc, a její aplikace je věc druhá.

Vladimír Mařík: Ano, co budeme moci vlastně nabídnout lidem. Dneska máme ukázky, ochutnávky, které jsou určeny pro tisíce, desetitisíce uživatelů. Ale až to budou chtít milióny, tak jsem zvědav, jak to energeticky utáhneme. Ale musím také říci, že tyto hlasy už se tady ozývají, byť nejsou úplně vyslyšeny. Ale bude to limitující faktor.

Martina: Pane profesore, další rizikovou oblastí je kybernetická bezpečnost – ta je velmi často považována za nejslabší místo rozvoje systémů s umělou inteligencí. Dostáváme se do paradoxní situace, kdy na scénu přicházejí stále rafinovanější viry, síťové útoky, které napadají umělou inteligenci, a my se jim máme – a vlastně musíme – bránit pomocí umělé inteligence. Má tato kybernetická bezpečnost nějaké řešení? Nebo docházíme k tomu, čemu se říká „argumentace kruhem“? V tomto případě je to „léčení kruhem“.

Vladimír Mařík: Tak samozřejmě, že tady bude snaha hackerů, ale i vlád, používat umělou inteligenci v té nepříjemné poloze ohrožující kybernetickou bezpečnost. Útočník bude vždycky o krok napřed. Umělá inteligence, metody umělé inteligence by měly zajišťovat to, že odpověď, odezva, bude velmi rychlá, čili prodleva mezi typy útoků a obranou proti nim by se měla co nejvíce zkracovat. Tedy tady nastoupí umělá inteligence proti umělé inteligenci, a jde o to…

Martina: A kdo jim to bude pískat?

Vladimír Mařík: No, to budeme my. My budeme pískat – nebo plakat. To je, prosím vás, o tom, kdo daný systém postaví líp. Je to vlastně souboj konstruktérů systémů útoku a ochrany před ním. A tady může být na různých bojištích, řekl bych, různý výsledek.

Kybernetická bezpečnost bude neustálý boj mezi systémy, které budou bránit naše soukromí, a těmi, které naše data budou chtít

Martina: Když už jsem u toho, že vyprávím o tom, co nám ze strany umělé inteligence může hrozit, tak na druhou stranu jsme už zmínili i pár pozitiv, bavili jsme se třeba o asistentech. Ale přeci jen je tady ještě jeden velký problém, a to ochrana bezpečí našich osobních informací, naší osobní identity – a teď nemluvím opravdu o digitalizaci. Svým soukromím mnohdy platíme za takzvané bezplatné služby – už jste to tady zmínil – ať už jde o TikTok, Google, a mnoho jiných sociálních sítí, pro které jsme vlastně my zbožím. „Když je něco zadarmo, tak zbožím jsi ty“, říká poměrně osvícený slogan. Řekněte mi, bude to s rozvojem umělé inteligence ještě těžší, a horší, než je to dnes? Protože z nás informace, myšlenky, a algoritmy našich myšlenek, bude dostávat bez problémů, a v rekordním čase?

Vladimír Mařík: To je jako s kybernetickou bezpečností. Budou vznikat systémy a řešení, které budou bránit naše soukromí, které ochrání naše data, a řeknou nám: „Tohle nedělej!“, nebo tomu dokonce zabrání samy. Samozřejmě to bude pořád boj, nečekám, že tady nastane jasný klid zbraní, ale bude tady stálá snaha něco utrhnout z našeho soukromí, a naše snaha, nebo snaha druhé skupiny, ochránit naše soukromí. Bude to trvalý boj, a toto nebezpečí tady rozhodně je. Podle mě velmi je důležité – a to znova opakuji – aby lidé věděli, co je za tím, kde je nebezpečí, a jak se mu bránit. Lidský faktor tady bude hrát velkou roli i v budoucnu.

Martina: Když už teď vidím, čeho lze za pomoci umělé inteligence dosáhnout na sociálních sítích, kdy už to nejsou jen nešikovné fotomontáže, kdy někdo někomu uřízne hlavu, a přidá mu tělo v nějaké porno poloze, ale jsou to skutečně hýbací obrázky, kdy se můžete podívat na parodii Pána prstenů, kde v různých scénách mluví herci svým hlasem, akorát že říkají něco úplně jiného. Řekněte mi, co myslíte, že to udělá se společností po sociálním stránce, a ohledně elementární důvěry? Protože my se můžeme velmi záhy dostat do situace, kdy už nebude možné věřit ani vlastním uším, ani vlastním očím, vlastně v zásadě nebudeme moct věřit smyslům. Co to udělá s člověkem? Co to udělá se společností, když na to, abych si byla jistá, že jste skutečně nepromluvil někde – nebudu říkat žádný příklad, třeba na sjezdu Landsmannschaftu – tak vás opravdu budu muset držet za ruce a říkat: „Vladimíre, přísahejte, že jste to nebyl vy.“ Protože to bud tak věrné. Co s tím? To přece může vést do totálního chaosu.

Vladimír Mařík: Může, a jedinou efektivní globální obranou je kritické myšlení, kdy si ověřujeme údaje z více zdrojů, kdy nad tím přemýšlíme. Ale to je dost náročné, a nevím, jestli každý občan bude tohoto kritického myšlení schopen. Na druhé straně bych chtěl ještě říct, že existují nástroje, které by poznaly, že nějaký obraz, nebo film byl dotvořen. Všimněte si, že když Kate zveřejnila fotky se svými dětmi, tak okamžitě vhodnými nástroji zjistili, že s touto fotkou bylo manipulováno.

Vladimír Mařík: A já si myslím, že vždycky zbraň proti bude. Protože se vždycky odhalí, jakým způsobem se manipuluje, a proti tomu bude protizbraň stejně, jako v kybernetické bezpečnosti. Jde o to, aby si to lidé uvědomili, správně používali – v uvozovkách – protizbraně, a také, aby si zjišťovali údaje z více zdrojů.

Martina: Pane profesore, už se uvažuje o tom, že se zruší bakalářské práce, že se zruší možná i diplomové práce, v každém případě se zruší na středních školách referáty, protože už není v síle jednotlivých pedagogů rozeznat, z čeho všeho čerpali, z čeho všeho plagiovali, případně, jestli jim to nenapsala AI. K čemu to povede? Myslíte, že se nám spolu s rozvojem umělé inteligence začnou snižovat požadavky třeba na naše studenty, na vědecké pracovníky, protože to prostě bude čím dál tím větší mišmaš?

Vladimír Mařík: Myslím, že nemůžeme rezignovat, že prostě nemůžeme říkat, že by nám to udělal Chat GPT, tak radši zrušíme bakalářské práce. Myslím, že musíme jít opačnou cestou, to znamená zvýšit nároky na bakalářské práce. Tedy pokud mají pomocníka, nebo možnost k němu přistoupit, tak bychom měli zvyšovat nároky na kvalitu těch prací. Podívejte se, Chat GPT píší poměrně plytké texty, a do značné míry se dá rozpoznat, co psal stroj, a co psal člověk.

Martina: Mnohé deníky dnes už jednoznačně využívají Chat GPT, a nepoznáte to úplně jen tak.

Vladimír Mařík: Protože to pak projde jazykový korektor, a člověk to zdozoruje. Navíc mnohé naše deníky píšou plytce, takže tam to vůbec nevadí.

Martina: Někdy se to ztratí, i kdyby to korektorem neprošlo – to máte pravdu.

Vladimír Mařík: I kdyby to korektorem neprošlo. Ale u vědeckých prací, který potřebují trochu hlubší uvažování, se to pozná.

Přemýšlet, uvažovat i s použitím literatury, která nebude na webu, ale v knihovně. A toto může být luxusem jen pro ty, kteří budou schopni něco sami zvážit a rozhodnout.

Martina: Plagiovalo se před tím, a to tady nebyla AI, a dokázat to bude asi čím dál tím těžší. Ale dobře, možná to právě vytvoří nové pracovní příležitosti. Myslíte si, že nám skutečně vzniknou v mnohem větší míře profese jako forenzní videoznalci, forenzní dozorci diplomových prací, nebo něco podobného? Myslíte si, že se vydáme třeba i tímto směrem, protože budeme chtít zjistit, jestli je ještě někdy nějaká práce vůbec původní?

Vladimír Mařík: Podívejte se, jestliže máme po vzniku robotů dozorce robotů, tak proč by nevznikli dozorci čistoty bakalářských, a těch či oněch prací – myslím, že to nastat může. A myslím, že dílo, které vytvoří Chat GPT, prostě nemá a nebude mít jednoduše takovou úroveň, aspoň v inženýrských vědách – ve společenských je to trošku jiné. Ale v inženýrských vědách to bude pořád ještě přeci jenom rozpoznatelné, a budou systémy, které to budou rozpoznávat. To souvisí i s takzvanou uzavřeností velkých jazykových modelů. Jakmile model uzavřete, a už k němu nedovolíte přisouvat další text, tak můžete zpětně zdetekovat, že to tímto systémem bylo napsáno. Problém máte, když se vám systém trvale vyvíjí – tak to už jde hůř.

Martina: Pro spoustu lidí, a ve spoustě oblastí to, co napíše Chat GPT, bude stačit, a může to tedy vést k jakémusi ústupu samostatnosti uvažování. Narážím na to, že františkánský mnich Paolo Benanti, poradce papeže Františka pro umělou inteligenci – což je taky poměrně nové pracovní zařazení – nedávno prohlásil: „Někteří lidé vzhlížejí k umělé inteligenci jako k vědmě, či věštkyni. Považují ji za určitou formu poloboha. Hrozí nám, že lidé přenechají kritické myšlení a rozhodování strojům.“ Nemáte z tohoto obavu?

Vladimír Mařík: Já jsem o kritickém myšlení hovořil, a říkal jsem, že to je jediné, co nás může ochránit. Otázka je, co když to přenecháme strojům: Možná to bude efektivnější, možná že ne, uvidíme, nechme to pohledu budoucnosti. Přesto si myslím, že je na pedagozích, na učitelích na vysoké škole, aby poznali, zda je dotyčný schopen samostatného uvažování, zda-li danou práci skutečně napsal. A pořád si myslím, že jsme schopni to zvládnout. Mimochodem, do knihy o umělé inteligenci napsali dva autoři svůj příspěvek naschvál pomocí Chat GPT, a odhadli jsme to poměrně jednoduše, protože formulace, a některé obraty byly plytčí, než jak by to dotyčný člověk při svém vzdělání měl napsat, takže zatím ještě pořád na to můžeme i logickou kontrolou.

Martina: Jenom už vidím učitele v třeťáku na gymplu, jak analyzuje dvaatřicet prací za pomoci také, samozřejmě, umělé inteligence, aby zjistil, kde, co ten student uloupil. Bude to náročné.

Vladimír Mařík: Možná, že by ředitel měl mít poradce pro umělou inteligenci, jako má papež, a možná tak vzniknou nová pracovní místa, o kterých jsme tady hovořili. A možná, že tam bude někdo, kdo bude specialista na rozpoznávání těchto věcí.

Martina: Jak já se na to těším. Pane profesore, nechci vypadat jako tmář, pouze ještě zmíním, že neurologové, a stejně tak psychologové a sociologové, poměrně varují, že se lidé stávají pasivními a zakrňují ve schopnosti vlastního úsudku. To je věc, o které jste už hovořil: Kritické myšlení, snaha, nevzdávat to, prostě stále chtít umělou inteligenci „přeprat“. Ale nemůže se stát, že v určitém okamžiku – kdy už na to většina trochu rezignuje – si nevšimne, že už přemýšlí více jako umělá inteligence, místo aby umělá inteligence přemýšlela jako člověk? A jestli tedy nemůže dojít k takovémuto rozbití ztráty hodnot, ztráty etických hodnot, mravních zásad, k rozvolnění úplně všeho?

Vladimír Mařík: Může. Myslím, že proces ztráty hodnot, ztráty mravních zásad, postupuje. Ale nedovedu odhadnout, netroufám si odhadnout, kolik toho zavinila umělá inteligence, kolik toho zavinila televize, kolik toho zavinily mobily. Tento podíl na tom zatím odhadnout nedovedu.

Martina: A obyčejná lenost.

Vladimír Mařík: A obyčejná lenost, to je další věc. Čili, samostatně přemýšlet, uvažovat, i třeba s použitím literatury, která nebude jenom na webu, budete ji mít knihovně. A může to být luxusem, a budou si to moct třeba dovolit jenom ti – u kterých to bude měřítko luxusu, zda-li je také schopen sám něco zvážit, rozhodnout, nikoli jen slepě sledovat svůj mobil. Co myslíte?

Martina: Já se zeptám umělé inteligence.

Vladimír Mařík: Zeptejte se umělé inteligence.

Člověk si musí ponechat kontrolu nad každým krokem stroje. Čili bude muset být víc dozorců, kteří budou dohlížet na to, aby stroje pracovaly samostatně.

Martina: Jen jsem žertovala. Myslím, že budou pravděpodobně vznikat ostrůvky staromilců. Otázka je, do jaké míry obstojí ve světě, který bude klást stále větší důraz na rychlost, povrchnost, nekomplikovanost. Ale tím nechci říct, že přesně tohle bude představovat umělá inteligence. Nerada bych, abyste tady vystupoval jenom jako obhájce, a já jenom jako kritik. Takže myslíte, že nám umělá přinese plus v průmyslu?

Vladimír Mařík: Jednoznačně. To jsme před osmi lety koncipovali v průmyslu 4.0, a v této koncepci umělá inteligence výrazně posunula koncepty 4.0 dopředu. Budete se možná divit, ale třeba velké jazykové modely se tam používají k plánování výrobních procesů, celých sekvencí výrobních postupů, k větší samo-organizovanosti celých výrobních úseků. Takže, zatímco dneska operátor, nebo člověk, chce jenom: „Vyrob 300 kusů, a tady máš návod, jak se to má vrtat, přesnou posloupnost operací, tak běž, a nějak se dohodněte, a vyrobte to“, tak v budoucnu člověk vyjádří jenom své přání, řekne: „Potřeboval bych vyrobit 300 kusů.“

Martina: Ale víte, co se říká? Že nejvíc nás Pánbůh trestá tím, že nám plní naše přání. Promiňte, teď jsem odbočila.

Vladimír Mařík: A možná, že nás tím Bůh potrestá. Ale co je důležité, že člověk si musí ponechat kontrolu nad každým krokem stroje. Čili, těch dozorců, jak jsem říkal, v dobrém slova smyslu, bude muset být víc, chceme-li, aby stroje pracovaly samostatně. Nicméně, generativní technologie už pronikly i do průmyslu 4.0, a to nemluvím o strojovém učení, nemluvím o virtuální realitě, nemluvím o dalších technologiích.

Martina: Dovolím si za vás odhadovat, že vidíte velký přínos AI i ve zdravotnictví.

Vladimír Mařík: Vidím, protože tam jsou obrovské objemy dat, které lze s pomocí umělé inteligence relativně objektivně vyhodnocovat, a získávat pravidla, nebo znalosti, jak efektivně léčit, jaké jsou vztahy mezi veličinami, a tak dále. Tam je přínos naprosto nesporný, a už dneska ho vidíme.

Martina: A myslíte si, že individuální přístup se nám tím pádem ze zdravotnictví úplně vytratí?

Vladimír Mařík: Ne, naopak, individuální přístup bude posílen, protože vzniknou konzultanti, kteří budou mít o vás naučenou znalost, to budou modely, jazykový model, kde bude popsáno celé vaše trápení, zdraví, nemoci, a přijdete s novými výsledky, a interpretace bude velmi inteligentní, protože bude znát vaši minulost, váš momentální stav, a s novými daty si inteligentněji a rychleji poradí.

Martina: Doufejme, doufejme, že nebudou přibývat reakce typu: „Pane doktore, ale mě to opravdu bolí.“ „Ne, to vás nemůže bolet.“ Tuto umělou inteligenci máme už dnes, takže na co si stěžuju. Pane profesore, k dopravě.

Vladimír Mařík: Doprava, to je další oblast. Doprava – ať už lidí, zásilek, nebo zboží, její optimalizace, bez umělé inteligence nebude nikdy tak kvalitní. Prostě ani sebelepší operátor nedokáže tak kvalitně plánovat dopravu – a jakoukoliv další činnost, montáže a tak dále – jako systémy umělé inteligence, které mají jasná pravidla, a intenzivně spolu komunikují.

Martina: A kde vidíte ve službách ty naše roboty, chatboty?

Vladimír Mařík: Ve službách? Podívejte se, služby se budou víc a víc koncentrovat přes web, čili řadu služeb si přes web objednáte, a co je důležité, web vám zařídí i jejich realizaci. To znamená, přijdete ke stroji a řeknete: „Chci pozítří letět do New Yorku nejlevnějším spojením.“ Dneska vám to vyhledají, nabídnou, ale v budoucnu vám to stroj i objedná, dodá, zařídí, včetně taxíku a ubytování. Zatímco dneska vám to jen nabízí, a musíte to na počítači udělat sama.

AI nepatří do vztahů mezi lidmi. Ty by jí neměly být ovládány, ale měly by zůstat na lidské bázi. Jakmile nás AI začne v tomto manipulovat, hodnoty našeho života budou redukovány.

Martina: Pane profesore, a kam si myslíte, že umělá inteligence prostě nepatří, a vy sám se třeba budete snažit zabránit tomu, aby se dostala do tohoto segmentu našeho života, a do této oblasti?

Vladimír Mařík: Tak samozřejmě nechci jí do nebezpečných pokusů. A potom se domnívám, že nepatří do vztahů mezi lidmi. Ty by neměly být ovládány umělou inteligencí, ale měly bychom zůstat na lidské bázi. To platí o rodině, o přátelích, to platí o spolupracovnících. A jakmile nás začne umělá inteligence v tomhle manipulovat, tak hodnoty našeho života budou opravdu redukovány.

Martina: Pane profesore, poslední otázka, která se také ještě týká vědomí: Vy jste mi tu knížku neměl půjčovat.

Vladimír Mařík: Já vám ji věnoval.

Martina: Ano, děkuji. Vědecké konstatování zní, že i když výzkum v oblasti lidského vědomí přinesl několik Nobelových cen, tak zatím zůstává podstata přirozeného vědomí neznámá. Tak pokud je podstata přirozeného vědomí neznámá, řekněte mi, nemůžeme pak velice oprávněně spekulovat o tom, jestli se tohoto vědomí nemůže v nějaké podobě zmocnit třeba i stroj, umělá inteligence, ať už v živé, nebo neživé hmotě?

Vladimír Mařík: Když neznáme podstatu, tak jak ji může někdo uchopit? Protože všechno, o čem jste hovořila, má pořád ještě nižší inteligenci, než je inteligence člověka. My víme, jaké jsou principy vědomí, kdy daný systém má vědomí, nebo nemá vědomí, ale nevíme, jak to opravdu funguje v živých organismech. A myslím, že umělá inteligence nám může pomoci jenom k tomu, aby nakonec odhalila základ vědomí, podstatu vědomí. Ale myslím, že zatím není ve stavu, že by ji hned uchopila a otočila proti nám.

Pokusy ovlivňovat lidské vědomí zbraněmi, které mají snížit inteligenci jiných lidí, budou, a AI v tom může pomoct. Záleží na člověku, zda bude mít morální vlastnosti, aby to nepřipustil.

Martina: Pane profesore, když jsem říkala, že je to poslední otázka, tak to jsem lhala, protože teď se v souvislosti s vaší odpovědí musím ještě zeptat: Technologie se rozvíjí raketovým způsobem, a to, co jsme ještě před mnoha měsíci, neříkám ani lety, považovali za fantasmagorie – futurologie, a že to patří do nejrůznějších filmů hollywoodské provenience – se ukazuje, že je buď realita, nebo přinejmenším ve stádiu zrodu a testování. Mluvím o nejrůznějších pokusech DARPy s lidským vědomím a s nanotechnologiemi, mluvím o chytrém prachu, který je možné vdechnout jako aerosol a který dokáže v našem mozku způsobit určité změny. Nemáte obavu, že se můžeme do budoucna dočkat takzvaných „hacknutých lidí“?

Vladimír Mařík: To je těžká otázka. Prioritně bych řek, že všechno záleží na nás samotných. Samozřejmě, tyto pokusy tu budou, ale budou určitě v zakázaném pásmu – kdo ho dodrží, nevím. Dál bych chtěl říct, že se ještě řada věcí, řekl bych, terminologicky zneužívá, to znamená, že chytrý prach nemá s inteligencí nic společného.

Martina: Nanočástice, které…

Vladimír Mařík: Které něco změní.

Martina: Ano.

Vladimír Mařík: Ale kde je ta inteligence? Možná změní naší inteligenci, to jedině.

Martina: Že to může ovlivnit neurony v mozku, a tak dál. My jsme se tady o tom bavili s Radovanem Dluhým-Smithem, a četli jsme tady i poslední výroky vědců, kteří se k takzvanému chytrému prachu věnují.

Vladimír Mařík: Chytrý prach by musel měnit naší inteligenci, čili, pak by mělo smysl o tom hovořit. Jinak sama o sobě je to prostě nějaká látka, která působí na mozek, a je to škodlivé, ale nevidím tam jeho chytré chování. To tam není. Takže je tu mnohdy nejasná terminologie, a v mnoha případech atraktivita umělé inteligence vede k tomu, že je inteligentní úplně všechno, takže dneska, když jdete kamkoliv, tak už nakupujete všechno „inteligentní…“

Martina: Smart city, smart phone – všechno.

Vladimír Mařík: Pomalu chytrý chleba, chytré pivo, všechno je chytré, ale mnohdy to nemá charakteristiky umělé inteligence.

Martina: Dobře, nebudu tomu říkat chytrý prach, budu tomu říkat nanoprach, který má za účel ovlivňovat třeba rozhodovací schopnosti člověka. Myslíte, že se toho můžeme do budoucna dočkat?

Vladimír Mařík: Můžeme, určitě tu snaha bude ovlivňovat lidi z jiných skupin. Určitě to nebude jenom prach, může to být cokoliv jiného, vysílané ionty, může to být jakkoli – tyto snahy tady budou. A to jsou v podstatě zbraně, které mají snížit inteligenci druhých, a umělá inteligence může pomoct s jejich rozvojem. Ale zase, záleží na člověku, jestli bude mít morální vlastnosti, aby to nepřipustil. Víte, že kolem atomové bomby bylo také mnoho morálních překážek. Než někdo zmačkl knoflík, pořád tam byly morální zábrany. A to bude i tady.

Martina: Musím říct, že když jsme se bavili v souvislosti s tímto prachem, tak najednou má úplně neškodná věta z Babičky: „Je libo šňupeček?“, možná zcela jiný význam. Pane profesore, věříte v lepší příští? Myslíte, že nakonec lidé své obrovské schopnosti, své obrovské znalosti a dovednosti ustojí, zvládnou?

Vladimír Mařík: Já jsem v tomto optimista. Procházíme určitým obdobím, které možná má charakter transformačního období, ale myslím, že společnost nakonec z tohoto období, náročného období transformace, vyjde posílená. Jsem přesvědčen o tom, že dnešní třeba nedostatek uctívání hodnot se změní, protože si lidstvo a jednotliví lidé uvědomí, co tyto hodnoty jsou, a budou je více chránit – dneska si ještě neuvědomují, že je ztrácejí. Možná, že jim to umělá inteligence zdůrazní: „Važ si svých hodnot. Toto je pravá hodnota, tohle nesleduj.“ Myslím, že z každé takovéto krize – i teď jsme malinko v krizi společnosti, trošku tu převládá pesimismus, víc než je zdrávo – se dostaneme, a zase půjdeme cestou, která nás bude uspokojovat víc, než dnešní krizový, pesimistický pohled na svět.

Martina: Pane profesore Vladimíre Maříku, já vám nesmírně děkuji za to, že jste přišel, a děkuji vám za to, že jste nám ukázal, že o umělé inteligenci se dá mluvit také hluboce lidsky. Díky moc.

VLADIMÍR MAŘÍK