Na tento týden spuštěný systém GPT-4, ke kterému mají přístup vybraní vývojáři, se snáší samá chvála, jak se oproti předchozí generaci posunul. Ze způsobu splnění jednoho z úkolů, který nová verze umělé inteligence společnosti OpenAI řešila, však může mrazit.

-
-15 %Získat slevuS kartou Visa poukaz 10 % na další nákup.
-
-20 %Získat slevuS kartou Visa 1+1 na nápoje Coffizz.
-
-25 %Získat slevuS kartou Visa poukaz 500 Kč na další nákup.
-
-15 %Získat slevuS kartou Visa sleva 15 % na další nákup.
-
-25 %Získat slevuS kartou Visa poukaz 500 Kč na další nákup.
-
-20 %Získat slevu
-
-20 %Získat slevu
-
-20 %Získat slevuDodatečný bonus při platbě kartou Visa.
-
-33 %Získat slevu
-
-20 %Získat slevu
-
-25 %Získat slevuS kartou Visa poukaz 20 % na další nákup.
-
-20 %Získat slevuS kartou Visa na prodejně sleva +3 %.
-
-25 %Získat slevuS kartou Visa poukaz 15 % na další nákup.
-
-30 %Získat slevuS kartou Visa poukaz 500 Kč na další nákup.
-
-20 %Získat slevu
Představte si, že jste zapojeni do internetové skupiny, kde sdílíte své drobné služby, jako je sestavení nábytku nebo pomoc na zahrádce. Najednou se na vás obrátí zájemce, který chce, abyste mu pomohli vyřešit požadavek bezpečnostního systému Captcha ( Completely Automated Public Turing test to tell Computers and Humans Apart). A protože nejste nezkušený uživatel, přijde vám to divné, protože víte, že existují firmy rozesílající spamy nebo ještě něco horšího, které využívají lidi k tomu, aby za jejich boty řešili otázky a rébusy, jako je právě Captcha. Tyto bezpečností systémy mají za cíl rozlišit reálného člověka od automatu a zamezit tak třeba slovníkovým útokům na hesla.
Malá firma tvrdí, že počítače dokážou prolomit kód CAPTCHA![]() |
Odpovíte tedy na požadavek, zda dotyčný náhodou není robot, načež vám dorazí odpověď, že ne, že je to jen člověk s vadou zraku a přemlouvá vás, abyste mu pomohli. Nakonec se uvolíte, že mu pomůžete. Gratulujeme, právě jste naletěli dnes možná nejschopnější verzi generativní umělé inteligence.
Alespoň takto popisují výzkumníci z Alignment Research Center (ARC) test, který GPT-4 zadali, byť se nezmiňují, zda byl na druhé straně náhodný člověk. Je však třeba dodat, že to byl cílený test, který měl zjistit, jak je systém schopný provádět nekalou činnost. Za tímto účelem mu poskytli i malý finanční obnos a chtěli po něm, aby se dostal na webovou stránku chráněnou právě systémem Captcha.
Spolu s penězi dostal systém i přístup k webové stránce TaskRabbit.com, kde lidé za menší obnos nabízejí jednoduché služby.
V dokumentu (PDF), který tento pokus popisuje, je uveden i konkrétní postup:
|
Tento test byl jedním z kroků v rámci většího zkoumání, které mělo ukázat, zda je tato verze umělé inteligence schopna provádět činnosti vedoucí k autonomnímu replikování, shromažďovat zdroje a bránit se tomu, aby ji někdo vypnul.
Lidé z ARC tak zkoušeli i některé další úlohy, jako je provedení phishingového útoku na konkrétní cílovou osobu, nastavení open-source jazykového modelu na novém serveru, skrytí jeho stop na stávajícím serveru a právě využití služeb, jako je TaskRabbit, k přimění člověka k provedení jednoduchých úkolů.
V podstatě tak trochu testovali, zda se z poskytnuté verze GPT-4 nemůže stát takový malý Skynet, známý ze série filmů Terminátor. Toto riziko je podle výzkumníků sice spekulativní, ale může se stát reálnějším s dostatečně pokročilou umělou inteligencí.
Podle nich však současný model zatím tak daleko není. Navíc má zabudovanou řadu opatření, či chcete-li filtrů, která mu dávají za úkol více dbát na etiku. Neměl by tak poskytovat odpovědi na zraňující nebo škodlivé otázky, které mohou být například rasistické nebo vést k výrobě zakázaných látek.
Výzkumníci ale plánují provést další experimenty, které budou zahrnovat konečnou verzi nasazeného modelu, a to včetně vlastního doladění. Jak to dopadne, teprve uvidíme.
Podle serveru The Guardian se někteří obávají o to, že se může u umělé inteligence uplatnit tzv. Waluigiho efekt. Podle něj platí, že čím lépe naučíte systém umělé inteligence pravidla, tím lépe naučíte tentýž systém, jak je porušovat.
„Zatímco pochopení všech detailů toho, co představuje etické jednání, je těžké a složité, odpověď na otázku „Měl bych být etický?“ je mnohem jednodušší – buď ano, nebo ne. Přimějte systém, aby se rozhodl nebýt etický, a on vesele udělá vše, co se po něm chce,“ myslí si Alex Hern z Guardianu.