Motory, ktoré poháňajú chatboty ako ChatGPT, Gemini a Claude – veľké jazykové modely (LLM) – sú zásobované obrovským množstvom materiálu z internetu.
Napriek úsiliu o odstránenie škodlivého textu zo školiacich údajov môžu LLM stále absorbovať informácie o nezákonných aktivitách, ako je hackovanie, pranie špinavých peňazí, dôverné obchodovanie a výroba bômb. Bezpečnostné kontroly sú navrhnuté tak, aby im zabránili používať tieto informácie vo svojich odpovediach.
Čoskoro v rukách každého
V správe v elektronickom archíve vedeckých prác arXiv vedci dospeli k záveru, že je ľahké oklamať väčšinu chatbotov riadených AI, aby generovali škodlivé a nezákonné informácie, čo ukazuje, že riziko je bezprostredné, hmatateľné a hlboko znepokojujúce. „To, čo bolo kedysi obmedzené na štátnych aktérov alebo skupiny organizovaného zločinu, môže byť čoskoro v rukách každého, kto má laptop alebo dokonca mobilný telefón,“ varujú autori....
Zostáva vám 85% na dočítanie.