- Europol varuje před možným zneužitím umělé inteligence pro zločiny na internetu
- ChatGPT může například navrhnout uvěřitelnou phishingovou kampaň lusknutím prstu
S velkou sílou přichází velká zodpovědnost, praví citát z komiksového Spider-Mana. Umělá inteligence, v současnosti reprezentovaná zejména robotem ChatGPT, zažila boom prakticky přes noc. Svět pomalu poznává rizika jejího zneužití ve škole či v práci. Evropský policejní úřad (Europol) však varuje i před zneužitím v oblasti kybernetické bezpečnosti.
Umělá inteligence mění svět kyberzločinu
ChatGPT, ale i jakýkoliv podobný projekt, se totiž může v rukou internetových šmejdů a podvodníků stát velmi silnou zbraní. Robotické systémy zaměřené na vyhledávání informací a strukturalizování jich do textu totiž mohou podvodníkům pomoci působit věrohodně, opravdově.

Nepřehlédněte
Umělá inteligence ChatGPT jako aplikace v mobilu? Dejte si velký pozor, často jde o podvod
„Schopnost aplikace ChatGPT vytvářet velmi realistický text z ní činí užitečný nástroj pro účely phishingu,“ napsal Europol. Právě phishingové kampaně na sociálních sítích a v e-mailu kolikrát doplácí na neohrabané překlady do češtiny a tudíž i sníženou věrohodnost. Čím hloupější podvod je, tím víc lidí jej prokoukne a nesedne šmejdům na lep.
Podvodníci mohou v mžiku oka vytvořit díky systémům jako je třeba ChatGPT celou stránku textu, který dobře zní a dává smysl, aniž by znali cílový jazyk. Úplně stejně je umělá inteligence schopná napsat kód pro podvodnou aplikaci, s níž budou kyberzločinci vysávat z lidí peníze.
Dezinformace řízené pomocí AI
Robotické systémy pro vyhledávání informací se řídí primárně podle klíčových slov a zajímá je primárně na to, co hledáte. Kontext už tolik podstatný není. Proto nedokáže AI odhalit lež či nepravdivou informaci – tedy minimálně v současnosti na to nemá kapacitu, uvidíme, kam se bude dál posouvat.
ChatGPT a další podobné aplikace mohou tím pádem posloužit i propagandě a šíření dezinformací. Důvod je v zásadě stejný jako u phishingových kampaní – AI vám napíše, co budete potřebovat, a neptá se na kontext.
Právě dezinformační kampaně jsou velkým problémem pro současnou společnost, která se pohybuje na sociálních sítích a internetových médiích. Stačí se podívat, jaké davové šílenství vytváří ruská vláda na téma války na Ukrajině. Propaganda a mediální masáž přesvědčila miliony lidí po celém světě, nejen v Rusku, že agresorem je Ukrajina. Přitom je to právě Rusko, které vtrhlo na území sousedního státu s tanky.
Boj s větrnými mlýny? Ani ne
Dobrou zprávou je, že společnost OpenAI si uvědomuje, že existuje prostor pro zneužití její neuronové sítě ChatGPT. Proto není chatovací robot v aktuální verzi plně připojen k internetu. V budoucnu bude ChatGPT využívat rozšířenější pluginy pro vyhledávání a další úkony, které ale mají být striktně prověřeny.
Uživatelé jako takoví žádnou ochranu proti podvodníkům využívajícím AI nemají. Vždy je nejlepší spoléhat na intuici a nenaletět na phishingové kampaně a reklamy, ve kterých se šmejdi vydávají za prověřené instituce, bankovní či dopravní společnosti a podobně.
Zároveň, stejně jako kyberzločinci mohou zneužívat umělou inteligenci k nekalostem, může policie a orgány činné v trestním řízení navrhnout vlastní využití robotů podobných ChatGPT. Moderní technologie mohou být nápomocné i v oblasti potírání zločinu.
Společnost Open AI hovoří například o tom, že umělá inteligence již nyní pomáhá policejním složkám s organizací databází: „Umělá inteligence dokáže identifikovat vzorce chování a předvídat podle toho potenciální budoucí zločiny.“