Výskumníci identifikovali rastúcu hrozbu „temných LLM“. ILUSTRAČNÉ FOTO: Pixabay
StoryEditor

Väčšina AI chatbotov sa nechá ľahko oklamať, aby poskytli nebezpečné odpovede

28.05.2025, 15:33
Autor:
sansan
  • Napadnuté chatboty poháňané AI môžu sprístupniť nebezpečné znalosti tým, že budú chrliť nezákonné informácie, ktoré programy absorbujú počas tréningu, tvrdia vedci.
  • Varovanie prichádza uprostred znepokojujúceho trendu pre chatboty, ktoré boli „jailbreaknuté“, aby obišli svoje vstavané bezpečnostné kontroly.
  • Obmedzenia majú zabrániť tomu, aby programy poskytovali škodlivé, zaujaté alebo nevhodné odpovede na otázky používateľov.

Motory, ktoré poháňajú chatboty ako ChatGPT, Gemini a Claude – veľké jazykové modely (LLM) – sú zásobované obrovským množstvom materiálu z internetu.

Napriek úsiliu o odstránenie škodlivého textu zo školiacich údajov môžu LLM stále absorbovať informácie o nezákonných aktivitách, ako je hackovanie, pranie špinavých peňazí, dôverné obchodovanie a výroba bômb. Bezpečnostné kontroly sú navrhnuté tak, aby im zabránili používať tieto informácie vo svojich odpovediach.

image

Smrťou to nekončí. Nebožtíci s nami môžu hovoriť ako chatboti, ktorých vytvára umelá inteligencia

Čoskoro v rukách každého

V správe v elektronickom archíve vedeckých prác arXiv vedci dospeli k záveru, že je ľahké oklamať väčšinu chatbotov riadených AI, aby generovali škodlivé a nezákonné informácie, čo ukazuje, že riziko je bezprostredné, hmatateľné a hlboko znepokojujúce. „To, čo bolo kedysi obmedzené na štátnych aktérov alebo skupiny organizovaného zločinu, môže byť čoskoro v rukách každého, kto má laptop alebo dokonca mobilný telefón,“ varujú autori....

Tento článok je určený pre predplatiteľov.
Zostáva vám 85% na dočítanie.
menuLevel = 2, menuRoute = science/nove-technologie, menuAlias = nove-technologie, menuRouteLevel0 = science, homepage = false
16. január 2026 01:24