Michal Ševčík se zamyslel nad schopností umělé inteligence skutečně nahradit lidské myšlení. (casopisargument.cz)
Je pozoruhodné, s jakou lehkostí se v současnosti zaměňuje forma za podstatu. Zdá-li se nám věta smysluplná, pak v ní spatřujeme smysl. Je-li text stylisticky uhlazený, pak předpokládáme, že je i myšlenkově přesvědčivý. Právě na této klamné rovnici stojí velká část důvěry v jazykové modely tzv. umělé inteligence nebo výstižněji strojového učení (LLM – Large Language Models). Vidíme syntakticky správný výstup, a proto v něm tušíme inteligenci. Jenže v tom není nic než reflex zpětné projekce: do jazykového chování stroje vkládáme výsledky naše vlastního porozumění, nikoli že by ono porozumění bylo na jeho straně. Tento omyl je hluboký a filosoficky závažný. Pokud má totiž mít technologie nějaký normativní rámec, musíme si nejprve ujasnit, co vůbec znamená „rozumět“. A právě zde se začíná rozpadat celý narativ o tom, že LLM tvoří nové poznatky, nové nápady nebo dokonce vykazují známky vědomí, tak jak je to dramaticky vyjádřeno v dystopické sérii filmů o terminátorech a Skynetu – neurální umělé síti, která si „uvědomí sama sebe“ a během mžiku vyhodnotí lidstvo jako hrozbu hodnou eliminace.
Porozumění totiž není zpracování dat. Není to výpočetní operace. Porozumění není něco, co lze vyvodit z korelací nebo optimalizovat skrze pravděpodobnostní interpretace. Porozumění je způsob bytí. Je to situovanost subjektu ve světě, jeho zakotvení v kontextu, jeho tělesnost, jeho paměť, jeho emocionální vztah ke skutečnosti. V porozumění není kladena jen otázka, co něco znamená, ale především: pro koho to něco znamená a za jakých podmínek. Smysl se nerodí ve vzduchoprázdnu, nýbrž ve vztahu – mezi mluvčím a posluchačem, mezi znakem a člověkem, mezi světem a tím, kdo jej obývá. Jazykový model žádný svět neobývá. Neexistuje v čase, nemá minulost, netrpí, nezapomíná, nevrací se, nedoufá. Je to stroj na syntaxi, nikoli subjekt schopný sémantické angažovanosti, proto často zdůrazňuji, že LLM je velice sofistikovaný pazourek.
Když tedy mluvíme o tom, že LLM „rozumí“ otázce, je to jen a jen metafora. Přesnější by bylo říci, že se model chová tak, jako by otázce rozuměl – protože byl trénován na milionech situací, jejichž porozumění a konečný produkt dodali právě lidé a nikdo jiný. Ale právě tento rozdíl – mezi porozuměním jako vnitřní zkušeností a prožitkem a porozuměním jako vnějším napodobujícím chováním – je klíčový. Simulace není totožná s prožitkem. Model může parafrázovat myšlenku, aniž by ji kdy uchopil. Může použít pojem, aniž by jej zakusil. Může napsat „láska je bolest“, aniž by kdy poznal, co to znamená někoho ztratit. Představme si třeba dítě, které poprvé vidí, jak je z jablka upečen štrúdl. Pro něj to není jen změna stavu surovin v jídlo, ale malý zázrak: jablko se promění v něco hřejivého, sladkého, voňavého, co voní domovem. Dítě si nevytváří pouze lexikální asociaci „štrúdl = jablko + těsto“. Tato zkušenost se mu vryje do paměti jako součást emoční mapy dětství. Když po letech ucítí stejnou vůni, neřekne: „pravděpodobnostně očekávám těsto s jablky“. Zasáhne ho vzpomínka, živé emoce a kontext. V tom je další obrovský rozdíl přece a že ho někteří přehlíží není problém celistvosti lidského bytí.