back to top

Umělá inteligence má bezpečnostní slabinu. Může mít totiž halucinace

I digitální programy mohou trpět halucinacemi. V případě umělé inteligence přitom jde o poměrně dlouho známý a závažný problém, který představuje bezpečnostní riziko při používání chatbotů jako jsou ChatGPT či Google Bard. Vývojáři z celého světa se tak snaží problém s AI halucinacemi řešit.

Virtuálními halucinacemi zpravidla trpí velké jazykové modely, které jsou základem právě oblíbených AI chatbotů. Jde zpravidla o odchylky od vnějších faktů, kontextové logiky nebo kombinace obojího. Jejich důsledkem pak umělá inteligence generuje falešné informace. Ty na první pohled většinou nelze rozeznat od těch skutečných, jelikož samy o sobě působí věrohodně díky schopnosti chatbota generovat souvislý text. Logika zde však ustupuje statistickým datům, a výsledkem je tak nepřesný výstup. Ve výjimečných případech se pak halucinace objeví i u grafických či zvukových AI programů.

Zdroj obrázku: https://www.istockphoto.com/

Potenciální riziko AI halucinací spočítá v jejich snadné zneužitelnosti. Hackeři totiž mohou tento fenomén snadno zneužít pro napadení systémů, které pro svůj chod využívají právě umělou inteligenci. Například ChatGPT totiž může pod vlivem halucinací vygenerovat URL adresy či kódy ke knihovnám, které však ve skutečnosti neexistují. Tímto způsobem by se mohl útok dostat z daného systému až k nic netušícímu koncovému uživateli.

Hrozba útoku neustále narůstá

Pravděpodobnost, že k takovému scénáři dojde, se navíc podle odborníků stále zvyšuje, protože stále více vývojářů přechází z tradičních domén pro vyhledávání kódu na AI alternativy. Předpokládá se, že s rozvojem generativní AI se pak situace jen zhorší. Lze tomu nějak předejít?

Zdroj obrázku: https://www.istockphoto.com/

Podle odborníků je na místě zůstat vždy ve střehu. Při používání kódů vygenerovaných umělou inteligencí je vhodné si výstupy pečlivě zkontrolovat, než jsou začleněny do samotných systémů. Dnešní kultura kopírovat/vložit totiž prý značně polevila na obezřetnosti, a dostat se k citlivým informacím je jednodušší než kdy dřív. Kód je tak nejprve vhodné otestovat mimo systém, než dojde k jeho ostrému spuštění. Do budoucna pak budou pravděpodobně vyvinuty i nástroje přímo v rámci AI, které by podobným škodlivým dopadům či halucinacím samotným měly účinně zabránit.

Zdroje:

https://www.makeuseof.com/what-is-ai-hallucination-and-how-do-you-spot-it/

https://www.cnbc.com/2023/05/31/openai-is-pursuing-a-new-way-to-fight-ai-hallucinations.html

Zdroj fotografii: Pixbay, Pexel, Envato, Dreamstime, istockphoto.com

David Vanda
Pohled na útulný a zároveň praktický domov mě naplňuje pohodou a klidem. V poslední době se však stále častěji věnuji nepravidelným souhrnům novinek z oblasti zdraví, vědy a techniky, o kterých rád seznamuji i čtenáře zajímající se o tato témata.

Nejnovější články

--- Další články autora ---