Zatímco odborníci na kyberbezpečnost poukazovali na případný blížící se bezpečnostní problém chatovacích robotů (jako je např. ChatGPT), útočníci je převezli. Namísto toho, aby se „nabourali“ přímo do těchto platforem, začali uživatelům ve velkém krást přímo pod rukama jejich přístupové údaje. Ty potom prodávají na darknetu. Uživatelé se tak prostřednictvím automaticky přednastavené uložené historie komunikace s chatbotem vystavují značnému riziku.
Podle singapurské společnosti Group-IB, zabývající se kybernetickou bezpečností, se během 12 měsíců v rámci logů (mezi útočníky oblíbených malwarů specializujících se na krádeže informací) objevilo 101 134 přihlašovacích údajů k ChatGPT. Více než čtvrtina z nich pochází z května 2023. „Tento významný únik vyvolává vážné obavy ohledně bezpečnosti informací v rámci generativních nástrojů umělé inteligence, jako je právě chatovací služba ChatGPT či a jí podobné, a poukazuje na potenciální rizika spojená s jejich využíváním,“ sděluje Petr Kocmich, Global Cyber Security Delivery Manager společnosti Soitron.
Zbraní se stal naslouchající malware
Ke krádežím byly nejvíce zneužity malwary Racoon, Vidar a Redline. Fungují přitom stejně jako jakýkoli jiný běžný malware – z cílového počítače kradou informace poté, co si uživatel často nevědomky stáhne a nainstaluje software, který je maskovaný jako požadovaná aplikace nebo soubor. Tento důmyslný typ malwaru se snadno používá a je k dispozici formou služby, která je provozována na základě předplatného modelu, což z něj mezi útočníky – mnohdy dokonce amatéry – činí oblíbenou volbu.
Po aktivaci shromažďuje přístupové údaje uložené v prohlížečích, údaje o bankovních kartách, peněženkách s kryptoměnami, cookies a historii prohlížení a posílá je útočníkovi. Vzhledem k tomu, že výchozí konfigurace ChatGPT všechny uživatelem vedené konverzace uchovává, může pak případné získání přihlašovacích údajů vést k tomu, že si konverzace prohlédne kdokoliv, kdo má k účtu přístup.
Proto by uživatelé neměli zadávat osobní údaje, které je mohou identifikovat. Těmi je například celé jméno, adresa, datum narození a rodné číslo. V žádném případě by neměli vkládat ani přístupové údaje (uživatelská jména a hesla), finanční informace (čísla účtů či platební karty) nebo informace o zdravotním stavu. Rovněž by měli držet v tajnosti pracovní informace, tedy nekomunikovat žádné informace o firmě. „Uživatelé si často neuvědomují, že jejich ChatGPT účty ve skutečnosti obsahují velké množství citlivých informací, které jsou pro kybernetické zločince žádoucí,“ varuje Petr Kocmich. Z tohoto důvodu je podle něj rozumné funkci ukládání chatu vypnout, pokud není naprosto nezbytná. Čím více dat účty obsahují, tím atraktivnější jsou pro kybernetické zločince, a proto Kocmich doporučuje pečlivě zvažovat, jaké informace do cloudových chatbotů a dalších služeb zadávat.
Řešením je preventivní obrana
Podobné riziko může nastat, pokud by se útočníkům podařilo prolomit ochranu samotného systému ChatGPT a kompromitovat jej. Pokud útočníci získají přístup k historii chatu, mohou tak nalézt přístupové údaje do firemních sítí, osobní informace atd. Zkrátka vše, co kdy bylo dříve do ChatGPT zadáno.
„V reakci na tuto bezpečnostní hrozbu se mimo zvážení deaktivace vedení historie chatů doporučuje, aby uživatelé pravidelně měnili svá hesla a využívali bezpečnostních opatření, jako je dvoufaktorová autentizace,“ radí Petr Kocmich. Obecně by se tato doporučení měla používat ve všech internetových službách a především tam, kde může neoprávněný přístup způsobit škody.
Ostražitost musí být na prvním místě
Tento incident podtrhuje naléhavou potřebu vylepšit ve světě internetu, který je stále více závislý na umělé inteligenci a digitálních interakcích, bezpečnostní postupy. Jak kyberzločinci vyvíjí nové a nové taktiky, povědomí veřejnosti o kybernetických rizicích a o tom, jak je zmírnit, se stává stále důležitější. „Bez ohledu na nástroje a postupy, které používáte, buďte neustále ostražití a aplikujte známé bezpečnostní principy a osvědčené postupy, abyste se nestali snadným cílem,“ zakončuje Kocmich.