Čtení o umělé inteligenci se na nás valí ze všech stran už tolik, že řada z nás začíná být alergická na cokoli, co má tento buzzword posledních měsíců v názvu.

Uplynulý víkend ale dělal vše pro to, aby se i těm nejvíce imunním dostala umělá inteligence (opět) pod kůži.  

Prvním výstřelem byl v pořadí již druhý dopis od části technokratické a vědecké komunity, varující před riziky umělé inteligence. Svůj příspěvek k tématu zveřejnila americká platforma Center for AI Safety, která si myslí, že by umělá inteligence mohla vést až k našemu vyhubení.

Zatímco první dopis sice vágně varoval, ale jinak žádal jen trochu času na přizpůsobení (a nejspíš také času na adaptaci firmám, kterým v oboru ujel vlak – ne náhodou byl mezi signatáři Elon Musk), druhý rovnou straší před rizikem, že nás umělá inteligence vymaže ze světa.  

„Zmírnění rizika vyhynutí v důsledku umělé inteligence by mělo být globální prioritou spolu s dalšími riziky společenského rozsahu, jako jsou pandemie a jaderná válka,“ nechala se slyšet iniciativa v novém dopisu.

Dost možná by prošel bez povšimnutí, kdyby ho nepodepsal Sam Altman, šéf OpenAI, známý také jako vyznavač takzvaného prepperství. Což je zjednodušeně řečeno záliba utrácet část svého výdělku či zisku za důkladnou přípravu na apokalypsu.

Mezi signatáři nechybějí také jména jako Daniela Amodei, prezidentka firmy Anthropic konkurující právě OpenAI, Lila Ibrahim z Google DeepMind, technologický ředitel Microsoftu Kevin Scott nebo Emad Mostaque, ředitel Stability AI.

Podobně jako v prvním dopise lze narazit také na české podpisy, od Vítězslava Kaly z Matematicko-fyzikální fakulty UK až po Jana Kulveita z Akademie věd. A i tento dopis mohl přinést některým prominentním signatářům reklamu pro jejich komerční projekty – nesmíme zapomínat, že nemají v plánu na svých byznysových aktivitách cokoli měnit.  

Několik dní po zveřejnění dopisu ale přišel zvrat, který si snad musel vymyslet nějaký hollywoodský scénárista. Na veřejnost probublala (později dementovaná) slova amerického šéfa testů a operací umělé inteligence u amerického letectva z květnové konference Future Combat Air and Space Capabilities Summit v Londýně.

Tucker „Cinco“ Hamiltona popisoval situaci, kdy měla americká armáda provádět virtuální cvičení, při kterém zkoušela scénáře, jak se budou při útocích na cíle chovat drony vybavené umělou inteligencí. A právě inteligentní dron se rozhodl „zabít“ svého lidského operátora, protože mu bránil ve splnění jeho hlavního úkolu.

V simulovaném testu dostal dron za úkol zničit protivzdušnou obranu nepřítele, a v případě, že mu v tom někdo zkusí bránit, na dotyčného zaútočit. Dron byl, podobně jako v reálných situacích, stínovaný lidským operátorem, který má za úkol operaci přerušit, pokud jsou například v oblasti civilisté.

Podle Hamiltona si systém uvědomil, že mu lidský operátor občas zabraňuje v dosažení cíle, za který získává body odměny – takže problém vyřešil jednoduše tím, že svého operátora v simulaci zabil. Dron měl následně obdržet novou sadu omezení, která jej penalizovala za zabití operátora. A problém opět vyřešil kreativně: zničil komunikační věž, aby mu do plnění úkolu operátor nemohl mluvit.

Hamilton se později za svoje slova omluvil a mluvčí letectva americké armády Ann Stefanek následně pro deník The Independent popřela, že by k simulaci kdy došlo. Vyjádření ale vzbuzuje rozpaky, protože na konferenčním webu existují o Hamiltonově projevu záznamy.

„Zdá se, že plukovníkovy komentáře, míněné jako anekdota, byly vytrženy z kontextu,“ upřesnila mluvčí.

Co si z toho vzít? Jsou obavy z umělé inteligence oprávněné, nebo nafouknuté podobně jako kdysi strach z elektřiny nebo automobilů? Ty se ostatně pohybují rychleji, než je náš mozek schopen reagovat, a přesto smrtelné nehody netvoří devadesát procent provozu na dálnici, ale jen přijatelný zlomek.

S umělou inteligencí, u které pro změnu nedokážeme domyslet všechny důsledky jejího uvažování, to možná bude nakonec podobné. A snad je na čase ji trochu sesadit z piedestalu současné adorace.

Jak dokládá současná valuace firem pracujících právě na generativní AI, světem hýbou přemrštěná očekávání. Generativní umělá inteligence doslova jako Baťa cvičky seká jeden startup s valuací přes miliardu dolarů za druhým. Nejčerstvějšími přírůstky jsou Runway a Cohere, jinak jich ale můžeme napočítat už třináct.

Pět z nich se přitom do elitního miliardového klubu připojilo teprve letos. Nepřipomíná vám to něco?

Jde o stejně manické chování, jako v roce 2021, kdy takto vznikaly miliardové NFT startupy, a investoři sypali stovky milionů dolarů do neznámých firem bez výsledků nebo kryptofirem, jako byla burza FTX.

V době, kdy se oproti pandemické bublině potýká svět technologií s nedostatkem venture kapitálu a zavedené firmy masivně propouštějí, chtějí najednou všichni ziskovost.

Náklady na udržení ChatGPT v chodu převyšují denně 700 tisíc dolarů.

Průměrná doba dosažení statusu jednorožce je v případě technologických firem sedm let. Pokud ale máte v popisu společnosti generativní umělou inteligenci, rázem se průměr zkrátí na tři a půl roku. Přitom už jen efektivita dnešních generativních modelů je diskutabilní.

Například náklady na udržení ChatGPT v chodu převyšují denně 700 tisíc dolarů, tedy desítky centů za jeden dotaz.

Třeba je to tak ale v pořádku. Třeba představují velké jazykové modely a generativní umělá inteligence skutečně tak revoluční technologie, že jsou náklady i humbuk opodstatněné. Kdo si to ale rozhodně nemyslí je například programátor a spisovatel Ted Chiang, podle jehož povídkové předlohy vznikl „jazykový“ sci-fi snímek Příchozí.

Chiang se domnívá, že konverzační programy jako ChatGPT nejsou nic víc, než vyhledávače s porozuměním přirozenému jazyku – a inteligentní jsou zhruba jako kopírka.

Generativní kecálkové jako ChatGPT totiž často chybují. Chiang situaci přirovnává k momentu, kdy obslužný software kopírky komprimuje data. Díky tomu můžeme dnes kopírovat dokumenty v každé kanceláři nebo dokonce doma, ale daní za to jsou občasné chyby – artefakty. Právě ty nám ale AI předkládá jako pravdivou a přesnou informaci.

Ovládni AI!
Vydání Forbesu Ovládni AI!

I to ukazuje, jak přehnaná očekávání momentálně kolem umělé inteligence víří. Je například příznačné, že politici začali hovořit o její regulaci teprve ve chvíli, kdy zažívá svých pět minut slávy generativní umělá inteligence – daleko odbornější AI systémy se ale vyvíjejí a fungují už léta.

A možná to vlastně naopak dává perfektní smysl. Právě generativní AI má totiž s politiky jednu důležitou věc společnou: často generují zdánlivě smysluplné výroky o tématech, o nichž nemají ani šajn. V případě umělé inteligence se to ale může časem přecejen alespoň změnit.

Nejznámější kritik jejího vývoje Eliezer Yudkowsky tvrdí, že se s kognitivními schopnostmi neskonale převyšujícími ty lidské se AI stane z lidského pohledu zcela nepředvídatelná, což podle něj nevyhnutelně povede k našemu zániku.

Podle mého soudu nás nezničí v případě, že se na ni nebudeme nekriticky spoléhat a porozumíme hodnotovému systému, podle kterého se rozhoduje. Je to trochu podobné, jako když se objevila navigace v mobilu a někteří lidé najednou končili se svým vozem na okraji útesu, uprostřed divočiny nebo ve stavební jámě…