TOPlist

3 způsoby, jak proti vám mohou podvodníci zneužít ChatGPT

Podvodníci na internetu
  • Europol varuje před možným zneužitím umělé inteligence pro zločiny na internetu
  • ChatGPT může například navrhnout uvěřitelnou phishingovou kampaň lusknutím prstu

S velkou sílou přichází velká zodpovědnost, praví citát z komiksového Spider-Mana. Umělá inteligence, v současnosti reprezentovaná zejména robotem ChatGPT, zažila boom prakticky přes noc. Svět pomalu poznává rizika jejího zneužití ve škole či v práci. Evropský policejní úřad (Europol) však varuje i před zneužitím v oblasti kybernetické bezpečnosti.

Umělá inteligence mění svět kyberzločinu

ChatGPT, ale i jakýkoliv podobný projekt, se totiž může v rukou internetových šmejdů a podvodníků stát velmi silnou zbraní. Robotické systémy zaměřené na vyhledávání informací a strukturalizování jich do textu totiž mohou podvodníkům pomoci působit věrohodně, opravdově.



Člověk se smartphonem připomínající hackera



Nepřehlédněte

Umělá inteligence ChatGPT jako aplikace v mobilu? Dejte si velký pozor, často jde o podvod

„Schopnost aplikace ChatGPT vytvářet velmi realistický text z ní činí užitečný nástroj pro účely phishingu,“ napsal Europol. Právě phishingové kampaně na sociálních sítích a v e-mailu kolikrát doplácí na neohrabané překlady do češtiny a tudíž i sníženou věrohodnost. Čím hloupější podvod je, tím víc lidí jej prokoukne a nesedne šmejdům na lep.

Podvodníci mohou v mžiku oka vytvořit díky systémům jako je třeba ChatGPT celou stránku textu, který dobře zní a dává smysl, aniž by znali cílový jazyk. Úplně stejně je umělá inteligence schopná napsat kód pro podvodnou aplikaci, s níž budou kyberzločinci vysávat z lidí peníze.

Dezinformace řízené pomocí AI

Robotické systémy pro vyhledávání informací se řídí primárně podle klíčových slov a zajímá je primárně na to, co hledáte. Kontext už tolik podstatný není. Proto nedokáže AI odhalit lež či nepravdivou informaci – tedy minimálně v současnosti na to nemá kapacitu, uvidíme, kam se bude dál posouvat.

ChatGPT a další podobné aplikace mohou tím pádem posloužit i propagandě a šíření dezinformací. Důvod je v zásadě stejný jako u phishingových kampaní – AI vám napíše, co budete potřebovat, a neptá se na kontext.

Právě dezinformační kampaně jsou velkým problémem pro současnou společnost, která se pohybuje na sociálních sítích a internetových médiích. Stačí se podívat, jaké davové šílenství vytváří ruská vláda na téma války na Ukrajině. Propaganda a mediální masáž přesvědčila miliony lidí po celém světě, nejen v Rusku, že agresorem je Ukrajina. Přitom je to právě Rusko, které vtrhlo na území sousedního státu s tanky.

Boj s větrnými mlýny? Ani ne

Dobrou zprávou je, že společnost OpenAI si uvědomuje, že existuje prostor pro zneužití její neuronové sítě ChatGPT. Proto není chatovací robot v aktuální verzi plně připojen k internetu. V budoucnu bude ChatGPT využívat rozšířenější pluginy pro vyhledávání a další úkony, které ale mají být striktně prověřeny.

Uživatelé jako takoví žádnou ochranu proti podvodníkům využívajícím AI nemají. Vždy je nejlepší spoléhat na intuici a nenaletět na phishingové kampaně a reklamy, ve kterých se šmejdi vydávají za prověřené instituce, bankovní či dopravní společnosti a podobně.

Zároveň, stejně jako kyberzločinci mohou zneužívat umělou inteligenci k nekalostem, může policie a orgány činné v trestním řízení navrhnout vlastní využití robotů podobných ChatGPT. Moderní technologie mohou být nápomocné i v oblasti potírání zločinu.

Společnost Open AI hovoří například o tom, že umělá inteligence již nyní pomáhá policejním složkám s organizací databází: „Umělá inteligence dokáže identifikovat vzorce chování a předvídat podle toho potenciální budoucí zločiny.“

Autor článku Jakub Fišer
Jakub Fišer
Novinář, fanoušek moderních technologií, letních měsíců a asijského jídla. Mám rád filmy od Lynche, obrazy od Pollocka, french house a fotbalový klub Arsenal. Ve volném čase hraju na PlayStationu a chodím běhat.

Kapitoly článku