Jakým směrem se ubírá vývoj umělé inteligence? A co od ní můžeme z dlouhodobého hlediska očekávat?
Velké jazykové modely zažívají ohromný rozmach, ale stále jde o programy, které většina lidí využívá „jen“ k povídání a hledání odpovědí. Přesto mají potenciál proniknout do každého aspektu našeho života a kompletně ho proměnit.
K povídání o budoucím směřování umělé inteligence jsme si pozvali dva experty z opačných konců spektra: Vývojáře a pionýry na daném poli zastupuje Kamil Malinka z Fakulty informačních technologií VUT, zatímco pohled byznysu a praktických aplikací přibližuje Tomáš Zavadil z firmy SAP.
Kam vývoj umělé inteligence aktuálně směřuje? Čeho bychom se mohli dočkat v dlouhodobějším horizontu?
Tomáš Zavadil: Budu se bavit hlavně o LLM neboli Large Language Models, tedy o velkých jazykových modelech. Ty se učí na datech z internetu, která jsme jim zprostředkovali, a snaží se z nich nějakým způsobem předvídat pokračování. Model dostane otázku a pokusí se predikovat odpověď. Je vlastně nehmotný, nemá faktickou zkušenost s reálným světem, má to jenom načtené.
Nabídnu analogii: Z pohledu evoluce se zvířata rozvíjela ve fyzickém prostředí a docházelo u nich k vývoji těla i mysli. Ale LLM představuje nehmotnou bytost, která nemá s hmotným světem zkušenost.
Existuje spousta faktorů, které se u ní musejí zlepšit, nejen zkušenost s reálným prostředím. Navíc nemá mozek, ve kterém se u živých tvorů odehrává spousta věcí. Typicky když jí řeknu, aby něco nedělala, pamatuje si moji instrukci jen do chvíle, než chat zavřu – a pak jako by všechno zapomněla a já vlastně musím začít od začátku. Je tedy potřeba, aby se tyto věci dál vyvíjely, aby vznikla schopnost automatického učení.
Kamil Malinka: Na tohle se díváme z trochu jiné úrovně. Existují dva pohledy: jeden takový střednědobý a potom ten, který řeší, co bude opravdu až za hodně dlouho. V tom střednědobém vidím daleko větší rozšíření možných aplikací, nástrojů, které aktuálně máme – ať už jde o generativní AI, nebo o samořiditelná auta.
Krátkodobější kroky budou spíš o nějaké optimalizaci, zapojování agentů, propojení více AI dohromady, ať spolupracují.
Při masivním nasazování umělé inteligence narážíme na dvě věci, z nichž tou první je nedostatek energie. Pokud nedokážeme AI přimět, aby nám rychle vyvinula fúzní reaktor, pak podle mě velice rychle narazíme na limity jak hardwarové, tak energetické.
Druhý problém spočívá v datovém balastu. Data jsou klíčová, aby AI dobře fungovala, jenže za poslední dva roky se internet strašně zaplevelil texty a obrázky generovanými právě umělou inteligencí. Což ovšem znamená, že její nové generace se budou učit i na těchto syntetických datech. A otázka zní, jestli to nepovede spíš k určité degeneraci, protože už půjde jen o variace existujících dat. Pořád se však bavíme o velmi úzce zaměřené inteligenci.
A ta všeobecná?
Kamil Malinka: Ta by měla simulovat lidský mozek, ale k tomu je myslím ještě hodně daleko. Netvrdím, že když teď zapojujeme nejrůznější modely, že to není úžasné. Ale rozhodně nejsou schopné samostatného přemýšlení a zpracování informací. Definice všeobecné umělé inteligence zní, že není naprogramovaná a dokáže fungovat sama.
Dá se říct, kde vzniká onen předěl mezi specializovanou a všeobecnou AI? Kdy už se přestane jednat o pouhý hodně komplikovaný jazykový model a začne jít o něco s vlastním vědomím?
Kamil Malinka: Myslím, že technologicky je to úplně něco jiného. Pokud situaci strašně moc zjednoduším, tak LLM jsou v podstatě tři matice, které násobíte a ony vám vrátí vždy následující slovo, které má nejvyšší pravděpodobnost výskytu. Tam není nic, co by mělo samostatně přemýšlet. Architektura všeobecné AI bude patrně úplně jiná, ale na tomto poli nejsem expert. Hodně jde o filozofickou diskusi, jak inteligenci vlastně definovat – jestli algoritmus znamená přemýšlení, nebo ne.
Tomáš Zavadil: Je třeba si ujasnit, co od obecné umělé inteligence očekáváme. Čekáme nějakou naši konkurenci, nebo přítele, se kterým si budeme povídat a diskutovat?
A není to tak, že danou otázku ve skutečnosti nikdo neřeší a prostě „šlapeme“ do vývoje jazykových modelů a čekáme, co z toho nakonec vzejde?
Tomáš Zavadil: Přesně. My nehledáme umělou inteligenci samu o sobě, my hledáme, jak ji použít, jak by nám mohla zjednodušit život, jak by mohla některé úkony dělat sama. Jde samozřejmě o filozofickou otázku, ale věřím, že nehledáme nějakou novou bytost. Pro byznys je důležité vymyslet model s co nejširším použitím.
Kamil Malinka: Já se na to dívám trošku jinak. AI představuje takový chytlavý „buzz-word“ (módní slovo, pozn. red.), pracuje se na ní ovšem posledních osmdesát let a dostali jsme se od strojového učení k hlubokým neuronovým sítím. Obrovský skok schopností dnešních modelů nenastal jen díky nové architektuře, ale také evolucí hardwaru, na kterém dané modely běží.
Vědecká komunita tedy o vhodném uchopení umělé inteligence hodně mluví a určité kruhy se ptají, zda to celé vůbec děláme dobře a jestli spíš nesměřujeme do záhuby – což je však podle mě součástí diskuse o jakékoliv technologii, kterou vyvineme. Nicméně souhlasím, že teď řešíme především aplikace a že tu existuje obrovský byznysový potenciál.
Nečetli jste knihu Eliezera Yudkowského a Natea Soarese s názvem If Anyone Builds It, Everyone Dies, tedy „pokud to někdo postaví, všichni zemřeme“? Autoři se v ní možnou katastrofickou budoucností zabývají a hlavní premisa zní, že vyspělá umělá inteligence nebude nikdy pracovat ve prospěch lidstva…
KM: Knihu jsme nečetl, ale vyrostl jsem sledováním Terminátora a jeho AI Skynet. A kam až dokážu dohlédnout, tak bych řekl, že technologie uvedeným směrem nejde – riziko je spíš v tom, že se AI pokusí „dokonale“ splnit nějaký úkol.
V tuto chvíli funguje tak, že jí dáme úkol a řekneme „vyřeš ho efektivně“. Což samozřejmě samo o sobě není bez rizika. Zadáte jí třeba, aby optimalizovala výrobu sýra, a ona například zjistí, že ty plísně nejlépe porostou, když bude ve vzduchu méně kyslíku a víc CO2, tudíž způsobí na celé planetě změnu ovzduší. Zabije lidstvo, ale na druhou stranu dokáže maximalizovat produkci sýra – čili vlastně splnila úkol. Právě úzce zaměřená AI může být nebezpečná tím, že si neuvědomí vedlejší efekty.
Dají se tyto nezamýšlené vedlejší dopady kontrolovat?
Tomáš Zavadil: Ve společnosti SAP máme etické standardy a snažíme se bavit o tom, zda je AI relevantní a odpovědná. Probíhá diskuse, jak ji směrovat, aby nedošlo ke zmíněné výrobě sýra nebo k myšlenkovému experimentu s názvem „sponková apokalypsa“, který vytvořil filozof Nick Bostrom: AI v něm dostane za úkol vyrobit co nejlevněji co nejvíce sponek, což nakonec skončí tím, že přetvoří ve sponky celý vesmír. Ve skutečnosti ji tedy chceme umravnit tak, aby sloužila, i když vlastně neví, co a proč dělá.
Co si myslíte o použití umělé inteligence na poli vojenství? Například při prvních izraelských náletech během války v Gaze se cíle vybíraly pomocí nástrojů AI, které pracovaly mimo jiné s adresami podezřelých teroristů. Dokážete si představit, kam až by popsané aplikace mohly dorůst?
Kamil Malinka: Asi si to umíme jasně představit všichni. Armáda samozřejmě zatím tvrdí, že se na konečném rozhodnutí, kam a jak udeřit, vždycky podílí člověk – ale umělá inteligence se začne využívat ve velkém. Už teď existují civilní aplikace pro řízení dronů v rojích, kde jsou optimalizované letecké vlastnosti, a armáda po nich přirozeně sáhne.
Otázka zní, jak se podaří implementovat etická rozhodnutí. Evropa půjde určitě směrem k regulacím a lidské kontrole, ale některé režimy se tímtéž směrem vydat nemusejí. Spousta odborníků by tudíž nejraději volila cestu zákazů, nicméně zůstává otázkou, nakolik je to reálné.
Tomáš Zavadil: Zatím pořád ještě AI úkolujeme a rozhodnutí provádí člověk. Věřím, že nikdo nevloží kompletní rozhodování do jejích rukou, že se lidé budou obávat dát jí autonomii a nikdo nebude tak šílený, aby se do toho pustil.
Kamil Malinka: Já vidím jako problém už to, že třeba podklady vám zpracuje umělá inteligence. Výsledné rozhodnutí o jaderném úderu pak může udělat člověk, ale na základě čeho? Pokud mu AI poskytne nesprávná data, člověk se rozhodne špatně. V tom spočívá velké riziko.
Není možné, aby práci vojenské umělé inteligence kontrolovala jiná AI? Asi znáte román Neuromancer od Williama Gibsona z roku 1984, kdy se jedna část umělé inteligence vzbouří, zatímco druhá část se ji snaží opět uvěznit – a obě k tomu využívají lidi jako pěšáky na šachovnici. Ve své době šlo o revoluční myšlenku. Můžeme se k ní dopracovat?
Kamil Malinka: V podstatě se to už děje. Hodně se teď věnujeme deepfake videím, která zobrazují něco, co vygenerovala AI. Představte si, že můžu vyrobit klip na základě nějakého krátkého vzorku vašeho hovoru a potom udělat video, kde říkáte věci, které jste asi říkat nechtěl.
K odhalení podvodu jsou nejúčinnější detektory stavějící opět na AI, takže k onomu souboji dvou umělých inteligencí vlastně dochází už dnes. Ale jedna bude samozřejmě vždycky tahat za kratší konec – většinou ta obranná.
Tomáš Zavadil: Já bych jenom doplnil něco k deepfakům. Ty totiž mohou posloužit například ke spuštění nějaké platby v byznysu. My pak v těchto platbách hledáme vzorce a snažíme se, aby firma dokázala podobný útok detekovat. U nás jde většinou o textová data, ale samozřejmě začne být třeba nebezpečné, když vám někdo zavolá, představí se jako člověk, kterého znáte, a bude po vás chtít nějakou finanční transakci. My pracujeme na tom, aby takový útok neprošel.
Používají dnes hackeři umělou inteligenci ve velkém? Předpokládám, že k postavení domácí neurální sítě by člověk potřeboval spoustu výkonu i hardwaru. To asi není tak snadné zajistit, že?
Kamil Malinka: Od zveřejnění ChatuGPT 3.5, což znamenalo první velký průlom, vznikly v podstatě do měsíce malware programy kompletně generované umělou inteligencí. Potřeba silného hardwaru se dá obejít. Spoustu služeb koupíte s měsíčním předplatným za pár dolarů a můžete je využívat na cloudu. Vytvoření a trénování modelu AI stojí velké peníze, ale jeho samotné uplatnění je výrazně levnější. Na to vám stačí běžná grafika a cena útoku se ohromně snižuje. Hackeři takto vytvářejí phishingové útoky, což obranu ztěžuje, protože třeba podvodné e-maily jsou už psané dobrou češtinou.
Teď jsem viděl, že AI nasazují například i severokorejští agenti, kteří se vydávají za programátory z Evropy a snaží se nechat zaměstnat v amerických firmách. Příprava agenta tak, aby dokázal projít přijímacím řízením, dřív zabrala tři nebo čtyři roky, zatímco dnes jim stačí šest měsíců.
Můžeme tedy mluvit o demokratizaci ve využívání AI?
Kamil Malinka: Běžný smrtelník dnes může jít na Hugging Face, což je takové velké online tržiště, a stáhne si už hotový model, který někdo někde vyrobil. Jsou jich tam desetitisíce. Pokud se budeme bavit o nadnárodních scénářích, nějakých velkých mafiích, tak ty si vytvoří vlastní týmy, jež obratem vyvinou vlastní nástroje. Spousta vědeckých výsledků je veřejně dostupná, takže jim stačí vybírat ta nejúčinnější řešení. To se vlastně moc neliší od byznysu.
Tomáš Zavadil: Mluvili jsme o korejských hackerech. Oni se vydávají za Američany, a abyste se ubránili, musíte pracovat na prescreeningu a zjistit, jestli při interview dokážou mluvit vlastním hlasem, nebo ho nějak modulují. Musíte to umět detekovat, a tady vstupuje do hry AI.
Ve skutečnosti nejde o boj mezi jednou a druhou umělou inteligencí, protože jsou to vždycky jen nástroje, které používají lidé. Ale ve chvíli, kdy si hacker útok zjednoduší, musíte proti němu samozřejmě nástroje AI využít – a ty se neustále vyvíjejí. Když kdysi dávno někdo vymyslel meč, musel někdo jiný vymyslet štít. A umělá inteligence funguje podobně: Pokud má nástroje útočník, musí je mít i obránce.
Jaká je budoucnost AI, vezmeme-li v potaz, že se jednou spojí s kvantovými počítači?
Kamil Malinka: Už dnes existují návrhy kvantových hybridních neuronových sítí, které některé vrstvy výpočtů směrují na kvantový počítač, protože dokáže určité typy operací spočítat výrazně efektivněji. Takže koncepty a algoritmy máme, teď potřebujeme dostatečný výpočetní výkon. Navíc jde také o elektřinu: Spousta firem naráží na lokální nedostatek energie pro svá AI datacentra – prostě je nedokážou „nakrmit“ – takže některé dokonce zvažují stavbu své vlastní jaderné elektrárny.
Kdyby tedy bylo na mně, vrhnul bych veškerou sílu AI na zprovoznění fúzního reaktoru, protože elektřina je tím, co nás momentálně škrtí. Můžeme sice maličko ladit funkce modelů, ale jejich výkon nyní neodpovídá spotřebě.
Tomáš Zavadil: Jen bych dodal, že kromě energie musíme vyřešit i „continuous learning“, tedy systematické učení. Když dneska zadáte nějaký prompt a model vám tvrdošíjně něco vnucuje, vidíte, jak moc je neschopný vzít si zpětnou vazbu.
Uvedu příklad z byznysu: Přijde vám platba a AI agent ji spáruje s fakturou, ale udělá to špatně. Vy mu řeknete, že takhle to není. Jenže příště to může udělat znova. Máme sice jisté opravné nástroje, nicméně zatím nejde umělé inteligenci nějak vysvětlit obecný princip, aby pochopila nejen jeden konkrétní úkol, ale aby si do budoucna pamatovala, co se po ní obecně chce. Jakmile toho dosáhneme, bude práce s ní mnohem příjemnější.
Dneska se jedná tak trochu o hračku, ale pomalu se dostáváme z fáze kladení dotazů a nějakých analýz k tomu, že umělá inteligence skutečně řeší úkoly. Půjde o velkou pomoc, protože každá práce sestává z určitých kroků, a pokud AI dokáže vyřešit ty nudné a mechanické, na nás zbudou ty zábavnější a hodnotné.

