Filip Tvrdý vystudoval filosofii a sociologii a nyní působí na Filosofické fakultě Univerzity Komenského v Bratislavě. Mezi jeho hlavní badatelské zájmy patří teorie argumentace, epistemologie ignorance a filosofie pseudovědy. Zkoumá možnosti, jakými lze poznatky evoluční biologie a experimentální psychologie aplikovat při řešení tradičních filosofických problémů. Mimo jiné je autorem knihy „Turingův test. Filosofické aspekty umělé inteligence“.
Co je to vlastně Turingův test?
Britský matematik Alan Turing, zakladatel moderní informatiky, napsal v roce 1950 článek, který vyšel ve filosofickém časopise Mind. Jmenoval se „Computing Machinery and Intelligence“. Kladl si v něm otázku, zda mohou stroje myslet. Viděl problém v užívání pojmů „stroj“ a „myšlení.“ Neměl velké starosti s pojmem „stroj“, který chápal jako „digitální počítač,“ tehdy již existovaly. On sám byl ostatně tvůrcem definice počítače. Problém byl termín „myslet“. Navrhl ho nahradit otázkou, zda by si počítače dobře vedly v takzvané „imitační hře“. V soutěži, v níž má tazatel pomocí otázek kladených dálnopisem zjistit, který z aktérů komunikace je člověk a který počítač. Má to určit na základě jeho odpovědí.
Myšlení je podle Turinga čistě verbální záležitostí, pokud něco myslí, jsme mu tu vlastnost schopni přisoudit jen na základě vnějších projevů. Spojeno je s jazykem a schopností mluvit. Turing předpokládal, že v té hře – říká se jí podle něj „Turingův test“ – uspějí počítače už kolem roku 2000.
Ještě loni jsme takové počítače neměli, ale nyní bych už byl opatrnější. Vznikly a byly zpřístupněny nové nástroje, například ChatGPT. Není to jediný hráč na trhu. Podobně LaMDA od Google, o níž zatím mnoho nevíme. A také překladač DeepL.
S ChatGPT jsem si povídal dlouho. Lže jako lidé. Když něco neví, nepřizná to a něco si vymyslí… A rozhodně bych nepoznal, že to není člověk.
Ano, myslím si, že již disponujeme technologiemi, které by v Turingově testu uspěly. Ale zatím neproběhla žádná „veřejná zkouška“. Do roku 2020 existovala Loebnerova cena. Jednou za rok se na nějaké univerzitě sešli programátoři a měli v omezeném Turingově testu zkusit, zda stroj uspěje. Ovšem ten typ nástrojů, který tehdy posuzovali, byl o něčem jiném než dnešní umělá inteligence. Pracovaly na poměrně jednoduché strategii nacházení vzorců, „pattern matching“. Počítače byly schopny najít v textu určitá klíčová slova a odpovídat tak, jak je to v takových situacích obvyklé. To může stačit k obelstění některých porotců, ale není to umělá inteligence v pravém slova smyslu.
Ty dnešní jsou komplexnější. Jde o neurální sítě schopné hlubokého učení, tzv. „deep learning“. Procházejí velké databáze konverzací – anebo internet – a snaží se v nich najít nějaký systém podobně, jako to děláme my, lidské bytosti. Už Turing předpověděl, že právě tak by měl postupovat počítač. Že by měl začínat jako dětská mysl. Měl by mít naprogramované jen nějaké základní vzorce, a pak by se učil sám z databáze informací, ze zkušenosti.
ChatGPT poznal, že si z něj dělám jízlivou legraci…
To starší programy neuměly. A nejedná se jen o rozpoznání sarkasmu nebo ironie. Zvládají i složitější komunikační situace jako pochopení slovních hříček. Schopnost vytvářet slovní asociace, chápat humor. To všechno už dnešní technologie do jisté míry umí.
Ptal jsem se před volbami na prezidentské kandidáty a ChatGPT začal mlžit. Lhal, že Petr Pavel byl členem STAN. Utrousil jsem ironicky, že „promluvila umělá inteligence“, a ChatGPT poznal ironii a omluvil se, že nemá dostatek informací.
Byl bych opatrný s termíny „poznal“, „porozuměl“ či „pochopil“. Někdy je chyba na naší straně, na straně rozhodčích. Když nějaký člověk mluví a dělá chyby, vycházíme mu vstříc, říkáme si, že to třeba tak nemyslel a vytváříme vlastní hypotézy, co vlastně chtěl sdělit. To v komunikaci s chatboty děláme i my, protože někdy doplňujeme významy sami.
Chatbot LaMDA od Google se stal i hvězdou bulváru. Jeho programátor Blake Lemoine napsal na sociální sítě, že LaMDA je cítící bytost, a z Google ho vyhodili za prozrazení firemního tajemství. Ne proto, že by řekl nepravdu…
Do okolností jeho odchodu nevidím. Ale myslím, že programátor LaMDA svůj chatbot příliš antropomorfizoval. Začal jej až moc vnímat jako člověka. Mnozí programátoři přisuzují svým programům emoce a vědomí, a to se myslím stalo i jemu. Možná chatbotům jen sami podsouváme tyto schopnosti. Nejsem si však jist, jestli opravdu mají nějakou sebereflexi, schopnost sebeuvědomění.
Ve filmu Sociální dilema říká bývalý zaměstnanec Google, že v Google je jen několik málo lidí, kteří chápou, co se v počítačích děje, a to jen obrysově. Protože ta neurální síť se z velké části naprogramovala sama. Pokud někdy nabude neurální síť sebereflexe, možná nám to ani počítač nemusí říct!
A i kdyby se nám to snažil říct, tak budeme závislí na tom, jak nám to řekne. Už Turing tvrdil, že máme k počítačům přistupovat jako k lidským bytostem. Vy jste teď také odkázán na můj verbální výstup, a já na váš. A lidé se nechají někdy snadno obelstít.
V ceně chatbotů na univerzitě v Readingu jednou vyhrál program, který se jmenoval Eugene Goostman. Jeho autor naprogramoval chatbot záměrně špatně. Imitoval osobnost třináctiletého ukrajinského chlapce s nedokonalou angličtinou a vlastním příběhem. A ten slovním projevem, který očekáváme od člověka, jenž neumí dobře anglicky, řadu porotců přelstil. Byli na něj „hodní,“ protože byl nějak znevýhodněný.
Překladatelé v mé sociální bublině došli k závěru, že s nástupem překladače DeepL končí…
Pracoval jsem jeden čas jako překladatel a jsem rád, že jsem odešel včas. I špičkový český překladatel Viktor Janiš píše, že překladatelské programy udělaly obrovský skok. A to i do menšinových jazyků, jako je čeština. To ukazuje, že pokročila umělá inteligence není evoluce, ale kvalitativní skok.
Měsíc jsem domněle komunikoval s primitivním ruských chatbotem. Pak jsem zjistil, že je to paní Boudníková z Krkonoš. Všechny její odpovědi byly představitelné jako výstup jednoduchého databázového chatbotu napsaného ve čtyřicet let starém programovacím jazyce Fortran. A když pozoruji projevy ANTI-lidí, vystupujících proti Gretě, rouškám, očkování, aktuálně proti pomoci Ukrajině, tak podobně jako jednoduchý robot diskutují skoro všichni. Co to znamená?
Nejspíše dvě věci. Hodně se bavíme o umělé inteligenci, ale měli bychom věnovat pozornost i lidské hlouposti. Proč jsou někteří lidé méně kognitivně kompetentní? Téma ignorance je důležité. Nevidím větší rozdíl mezi počítači a lidmi. I naše mysli jsou programy, ale naprogramoval je nejhorší programátor na světě – přírodní výběr metodou pokusu a omylu. Inteligentní lidé také myslí jako stroje, ale mají bohatší repertoár reakcí. Jejich „software“ je sofistikovanější.
Inteligence je schopnost kreativně vyřešit problém, se kterým jsme se ještě nesetkali. U člověka i umělé inteligence je v základu nějaký program. Ať je člověk hloupý, nebo chytrý, ať je umělá inteligence zastaralá nebo moderní, pořád je v jádru nějaký program, který může být složitější nebo jednodušší. Ale pořád je to program. To, že hloupější lidé odpovídají jako primitivní chatbot, mne nepřekvapuje. Stejně mne nepřekvapuje, že inteligentní lidé vytvářejí outputy na úrovni pokročilých umělých inteligencí.
Na jedné z věhlasných univerzit pustili před časem jejich umělou inteligenci na web, nechali ji prostudovat asi čtyři miliardy stránek, a pak jí kladli otázky. Ptali se na Ujgury a umělá inteligence té západní univerzity odpověděla, že Komunistická strana Číny se o ně vzorně stará a mají se dobře. Znamená to, že čínská umělá inteligence je dál než ta naše, když tu naši západní přelhala?
To netuším. Stejně jako u lidí, také u počítačů záleží na tom, v jakém prostředí se nacházejí, co se učí. Když je umělá inteligence nebo člověk v prostředí těžce ovlivněném propagandou, uvěří jí.
Lidé mají velkou chybovost. Přišel už čas na to, abychom svěřili řízení společnosti umělé inteligenci?
V kognitivních vědách, v psychologii a filosofii se mluví o tom, že je mysl rozpolcená do dvou systémů – Systém 1 a Systém 2. První je automatický a instinktivní, druhý vědomý a racionální. My se při studiu umělých inteligencí soustředíme na Systém 2, snažíme se s ním hledat racionální řešení problémů.
Stačilo by, kdybychom se při řízení státu řídili lidským Systémem 2, tedy racionální složkou lidské mysli. Tak, že bychom lidi méně strašili a méně v nich vyvolávali primitivní reakce. A jestli by to umělá inteligence zvládla, neměl bych problém s tím, aby část rozhodovacích procesů převzala za lidi.
Post scriptum: Poslední slovo z Nature
Od našeho rozhovoru do momentu, než jsem jej Filipu Tvrdému zaslal k autorizaci, vyšla v časopise Nature k našemu tématu důležitá studie:
„Požádali jsme ChatGPT, aby shrnul systematický přehled, který jsme dva z nás napsali v časopise JAMA Psychiatry5, týkající se účinnosti kognitivně-behaviorální terapie (KBT) u úzkostných poruch. ChatGPT vykonstruoval přesvědčivou odpověď, která obsahovala několik faktických chyb, zkreslení a nesprávných údajů. Například uvedla, že přehled vychází ze 46 studií (ve skutečnosti vycházel z 69), a co je ještě znepokojivější, přeháněla účinnost KBT.
Tyto chyby mohly být způsobeny absencí relevantních článků v tréninkovém souboru ChatGPT, neschopností vydestilovat relevantní informace nebo neschopností rozlišit mezi důvěryhodnými a méně důvěryhodnými zdroji. Zdá se, že stejné předsudky, které často svádějí člověka na scestí, jako jsou předsudky dostupnosti, výběru a potvrzení, se v konverzační AI reprodukují a často dokonce zesilují.“
Tolik citát z článku ChatGPT: five priorities for research (Nature, 3. 2. 2023). Strojový překlad DeepL. Takže můžeme s jistotou konstatovat: Při vývoji umělé strojové inteligence ChatGPT se do ní podařilo zabudovat i „předsudky dostupnosti, výběru a potvrzení“, tedy přirozenou lidskou blbost.