Dreamstime
StoryEditor

AI? Áno! Ale bezpečne

30.05.2025, 00:00

Firmy sa umelú inteligenciu snažia nasadzovať všade tam, kde to aspoň trochu dáva zmysel. Nechcú, aby im v tomto smere ušiel vlak, no v snahe držať krok s konkurenciou sa neraz zabúda na zásadnú otázku: je táto integrácia aj bezpečná?

Niečo podobné tu bolo

Umelá inteligencia sa stáva pre firmy novým technologickým „must-have". Podobne, ako to bolo pred pár rokmi s prechodom do cloudu. Kým pri rozhodovaní o prechode do cloudu bolo jasné, že dáta opúšťajú firmu a idú „von" tak pri používaní resp. nasadzovaní umelej inteligencie to nemusí byť také zrejmé.  

Pri prechode do cloudu sa firmy sa postupne naučili riešiť bezpečnosť, šifrovanie, prístupové práva a dodávateľské zmluvy. Pri AI sa však na rovnaké riziká často zabúda – hoci sú niekedy ešte zákernejšie. Firemné dokumenty, dáta alebo stratégie môžu byť nevedomky prenášané do verejných modelov len tým, že zamestnanec do chatu s AI vloží citlivý prompt.

Manipulácii neodolá nič

Druhá strana pomyselnej mince vkladania citlivých údajov do jednotlivých modelov predstavuje napríklad útoky typu prompt injection. Pri tomto type útokov sa útočník snaží zmanipulovať prompt tak, aby „presvedčil model“ o porušení vlastných bezpečnostných pravidiel. Model môže byť zmanipulovaný až tak, že neúmyselne prezradí vložené dáta.

Ak tieto dáta zahŕňajú nepublikované dokumenty, zmluvy či osobné údaje, môže ísť o vážne porušenie ochrany osobných údajov alebo iných regulácií. Takýto typ útokov, akými sú zneužitie dát, únik dôverných informácií – to všetko nie sú hypotetické hrozby, ale realita.

Pozor na tieňové IT

Nasadzovanie AI sa často začína spontánne. Jednotlivci či tímy začnú používať nástroje ako ChatGPT bez oficiálneho súhlasu alebo centrálneho riadenia na zefektívnenie práce. Tento stav pripomína klasické tieňové IT, kedy technológie prenikajú do firmy pomyslenými zadnými dverami, bez bezpečnostných opatrení alebo politiky ochrany údajov.

Niektoré firmy si tieto riziká rýchlo uvedomia a začnú proces riadenia. Pripravia základné interné smernice, ktoré upravujú používanie verejných AI nástrojov, vytvoria tímové účty a aspoň pasívne sledujú, aké dáta zamestnanci s modelmi zdieľajú. Hoci to nezaručuje úplnú ochranu, ide o dôležitý krok k väčšej transparentnosti a naznačuje, že firma začína chápať vplyv AI na vlastné podnikanie.

O krok ďalej

Príkladom v bezpečnostnom nasadení sú pokročilejšie firmy, ktoré siahajú po vlastných oddelených prostrediach. Napríklad využívajú enterprise API prístup k modelom, kde sa dá vypnúť logovanie aj následné trénovanie na zadaných údajoch. Hoci takéto oddelenie síce stále využíva verejný model, ale už s oveľa väčšou kontrolou nad tým, čo sa s dátami deje.

Záleží potom na konkrétnych možnostiach daného modelu, firemného prístupu. V tomto momente je vhodné detailne preštudovať dané podmienky. Overujte, na akých dátach bol model trénovaný, ako sú jednotliví tenanti od seba oddelení, alebo či sa model  dotrénováva z jednotlivých promptov respektíve nahraných dát.

O kilometer ďalej

Tak ako to bolo aj pri prechode z vlastnej infraštruktúry do cloudovej, najvyššiu úroveň bezpečnosti a kontroly vieme dosiahnuť  používaním lokálnych (offline) modelov, pričom na ich dolaďovanie potom môžeme použiť interné dáta. Dnes existujú predpripravené platformy, ktoré vedia riadiť prompty na jednotlivé lokálne modely. Samozrejme existujú aj verejne dostupné modely, ktoré vieme nasledovne doladiť na vlastných dátach v rámci vlastnej infraštruktúry.

V takom prípade má firma plnú kontrolu nad tým, čo do modelu vstupuje, ako sa správa a kde všade sú dáta uložené. To však znamená nielen vyššie technické nároky na infraštruktúru, ale aj potrebu špecializovaného tímu – odborníkov na AI a kyberbezpečnosť. No ak firma berie AI vážne, táto investícia sa môže dlhodobo vyplatiť.

Záverom ešte raz

Každá firma by si mala stanoviť dlhodobú stratégiu pre využívanie umelej inteligencie. Kľúčové je začať od reálneho biznisového prípadu a na jeho základe zvážiť, aký model nasadenia má zmysel – či verejný s rozumnými obmedzeniami, alebo vlastný s plnou kontrolou.

Dôležité je nezabúdať na ochranu firemných a osobných údajov, a súčasne zabezpečiť súlad s nariadeniami ako GDPR a AI Act. Prístup „rýchlo, jednoducho a zadarmo“ má často svoju skrytú cenu – v podobe únikov informácií, reputačných  legislatívnych, či finančných škôd. Udržateľné a bezpečné nasadenie AI si preto vyžaduje nielen nadšenie, ale aj jasnú víziu a zodpovedné rozhodnutia.

Michal Srnec vedúci oddelenia informačnej bezpečnosti

Aliter Technologies

menuLevel = 1, menuRoute = hn-special, menuAlias = hn-special, menuRouteLevel0 = hn-special, homepage = false
12. jún 2025 04:22