Dreamstime
StoryEditor

Všetko, čo ste sa vždy chceli opýtať o umelej inteligencii

28.06.2024, 00:00

Počúvame vás na rôznych podujatiach a mapujeme, ktoré témy a oblasti AI sa vás najviac dotýkajú.

V posledných mesiacoch sme sa s kolegami zúčastnili viacerých odborných podujatí, na ktorých sme na pódiách i mimo nich diskutovali o aktuálnych témach súvisiacich s umelou inteligenciou i digitálnou bezpečnosťou.

Tieto diskusie s manažérmi, IT špecialistami i laikmi nám poskytli určitý nadhľad – zistili sme, že mnohé organizácie dnes vnímajú tie isté otázky ako najpálčivejšie. Od samotného využívania AI systémov až po ich etické a právne aspekty, každé takéto stretnutie nám pomohlo získať nové perspektívy, odpovede, a často aj ďalšie otázky.

Na základe týchto diskusií sme sa rozhodli zosumarizovať päť najčastejších otázok a relevantných odpovedí, ktoré vám prinášame v tomto článku. Vzhľadom na extrémne rýchly vývoj akejkoľvek oblasti týkajúcej sa AI majú však tieto odpovede len obmedzenú trvanlivosť, ale môžu vám poslúžiť ako zdroj do diskusie, ktorú by ste vo firme mali mať – s manažérmi, zamestnancami, vývojármi, správcami IT, bezpečnostnými špecialistami a kýmkoľvek, kto sa u vás zaujíma o AI a jej implementáciu v reálnom svete.

Či už hľadáte spôsoby, ako optimalizovať svoje podnikové procesy, alebo chcete pochopiť riziká spojené s používaním verejne dostupných AI nástrojov, dúfame, že vám táto strana bude inšpiráciou.

TOP 5 otázok

  • Zničí AI ľudstvo? Alebo našu firmu? Prídem kvôli AI o prácu?

Nikto nedokáže s istotou predpovedať budúcnosť, a preto je dôležité uvažovať o rôznych možných scenároch. Záleží na vás, či sa v kontexte technológií prikloníte skôr k zástancom smeru „solarpunk“, zameranému na optimistickú budúcnosť, kde ľudia žijú v harmónii s prírodou pomocou obnoviteľných zdrojov energie, udržateľného dizajnu a moderných technológií vrátane AI. Alebo ak aj veríte viac v dystopické kyberpunkové scenáre a ste zástancom „lunarpunku“, kde ľudia budú musieť prežívať v drsných podmienkach, aspoň máte dosť času sa na ne pripraviť.

Oveľa menej času však máme na príchod AI v pracovnom, firemnom prostredí. Ak sa na ohrozenie AI pozeráme z pohľadu firmy, nebude to samotná umelá inteligencia, kto vašim zamestnancom vezme prácu. Bude to skôr nejaký iný človek, konkurent, kto dokáže nástroje AI využiť skôr a lepšie ako vy. AI sama o sebe teda nie je hrozbou, je to skôr nástroj, ktorý môže výrazne zvýšiť vašu produktivitu a konkurencieschopnosť. Firmy, ktoré úspešne integrujú AI do svojich procesov a naučia svojich zamestnancov efektívne ju využívať, získajú významnú konkurenčnú výhodu. A zároveň nás všetkých pomôžu posunúť ku svetlým „solarpunk“ zajtrajškom.

  • Aké riziká mi hrozia pri používaní bežne dostupných AI nástrojov?

Používanie verejne dostupných AI nástrojov prináša viacero rizík, ktoré by ste mali dôkladne zvážiť.

Medzi hlavné riziká patria

  • Únik citlivých informácií – pri používaní AI v podnikovom prostredí môže ľahko prísť k neželanému zdieľaniu osobných či iných dôverných údajov. Dobrovoľne ich do nástroja „vložíte“ priamo vy ako súčasť zadania, neuvedomujúc si, že ste ich práve poskytli na spracovanie tretej strane.
  • „Halucinácie“ – sú v dnešných AI nástrojoch častým javom. Výsledky, ktoré vám AI poskytne, obsahujú nesprávne a nepravdivé informácie, ktoré však pôsobia ako fakty. Tento jav je spôsobený technikou vytvárania odpovedí z naučených dát, a aj keď odpoveď pôsobí veľmi vierohodne (vrátane fiktívnych referencií či iných dát), je úplne vymyslená.
  • Nepresné výsledky - AI nástroje môžu byť „naučené“ na dátach, ktoré sú neúplné, nesprávne či inak nevyvážené. Nekvalitné vstupy tak logicky môžu viesť k nekvalitným (napr. diskriminačným) výstupom. Situáciu komplikuje aj nedostatok informácií a transparentnosti o procese „trénovania“ známych AI nástrojov.
  • Autorské práva – sú ďalším komplexným a dynamickým rozmerom AI, v ktorom vznikajú nové otázky skôr ako odpovede na tie súčasné. Neboli pri učení AI modelov použité dáta (texty, obrázky), ktoré by boli chránené autorskými právami? Týkajú sa autorské práva AI výstupov, aj keď ich nevytvoril človek? Ak áno, patria vám ako používateľovi daného nástroja, alebo zostávajú vlastníkovi technológie? 
  • Ako využiť  bežne dostupné AI nástroje napriek ich rizikám pre svoje podnikanie?

Ani s ohľadom na spomínané riziká nie je riešením AI nástroje zakázať. Pripravili by ste sa tak totiž zároveň o príležitosť využiť ich potenciál na zvýšenie produktivity, efektivity a inovácií vo vašom podnikaní. Ako to ale spraviť bezpečne?

Kľúčom je definovať základné firemné pravidlá, ako môžu (a majú) zamestnanci používať AI pri plnení pracovných úloh. Pre začiatok môžete ustanoviť tri kategórie použitia AI.

V prvej kategórii „bez obmedzení“ by sa mali nachádzať prípady použitia, ktoré nepredstavujú riziko pre bezpečnosť alebo súkromie, a môžu byť voľne využívané všetkými zamestnancami. Môže ísť napríklad o generovanie marketingových textov, obrázkov či názvov prezentácií.

Do tejto kategórie ale patria aj interne nasadené AI nástroje (ako napr. naša Millada), ktoré rešpektujú platnú legislatívu i vaše firemné politiky, disponujú adekvátnou správou a riadením, a môžu tak slúžiť aj pri oveľa zložitejších úlohách. Tieto „privátne“ AI nástroje totiž môžu byť navrhnuté tak, aby bezpečne pristupovali k firemným dátam a striktne dodržiavali pravidlá – napr. neposielali citlivé informácie mimo vašu infraštruktúru.

Druhá kategória by mala zahŕňať scenáre, ktoré si vyžadujú vyššiu opatrnosť – kde by výstup z AI nástroja mal pred jeho použitím posúdiť odborník. Typicky ide o písanie počítačového kódu či odborné analýzy všemožných kategórií.

V poslednej, „zakázanej“ kategórii by v princípe mali byť všetky ostatné prípady, ale najmä tie, ktorých vstupy obsahujú akékoľvek citlivé alebo osobné údaje. Vaši zamestnanci a kolegovia by určite nemali používať verejné AI nástroje na analýzu zmlúv, životopisov, vašich zdrojových kódov a pod.

  • Ako nám s rizikami pomôže AI legislatíva?

Známy „AI Act“ je právny rámec Európskej únie, ktorý má za cieľ regulovať využívanie umelej inteligencie (AI) s dôrazom na ochranu základných práv, bezpečnosť a transparentnosť. Netýka sa jednotlivcov, ale zameriava na firmy a inštitúcie, ktoré AI nástroje vytvárajú alebo používajú.

AI systémy klasifikuje podľa rizík - od minimálnych po neprijateľné, a stanovuje požiadavky pre vysokorizikové aplikácie, ako sú tie v oblasti zdravotníctva, dopravy alebo vzdelávania. Cieľom je zabezpečiť, aby AI technológie boli využívané eticky a bezpečne, a aby mali používatelia a spoločnosť istotu, že tieto technológie nebudú zneužité.

Komplexná je ale samotná podstata - či AI vôbec treba regulovať? Zástancovia argumentujú, že bez jasných pravidiel môže AI napáchať významné škody, vrátane diskriminácie a narušenia súkromia. Na druhej strane, protivníci tvrdia, že regulácia bude brzdiť inovácie (napr. v EÚ), a že dynamický vývoj AI technológií nastane aj tak na územiach mimo jej dosahu (napr. v USA a Číne). Regulácie tiež nezaručujú, že ľudia nebudú AI používať nevhodne, či už z nevedomosti alebo zámerne.

Ak by ale aj došlo ku konsenzu, že AI regulovať treba, nebude to také jednoduché. AI technológie sa vyvíjajú tak rýchlo, že legislatívny proces im stíhať nebude. Výsledkom môže byť schválenie zákona, ktorý už nie je aktuálny, pretože technológia medzitým prešla významnými zmenami a má nové vlastnosti či funkcie, ktoré pôvodná regulácia nepokrýva.

  • V súvislosti s kyberbezpečnosťou – bude AI viac pomocou alebo príťažou?

AI? Áno aj.

AI je a bude zároveň významnou pomocou aj hrozbou. Už dnes sa strojové učenie (ML) využíva na detekciu hrozieb, vyhodnocovanie abnormálneho správania, filtrovanie škodlivého obsahu či triedenie veľkých objemov dát. Generatívna AI (GenAI) zase pomáha zvyšovať produktivitu technických špecialistov, poskytuje užívateľom lepší prístup k báze znalostí alebo automatizuje mnohé (aj) bezpečnostné procesy.

Na druhej, temnej strane, AI môže rovnako pomáhať aj pri programovaní škodlivého kódu, sprístupňuje znalosti útočníkom, a očakávame, že v blízkej budúcnosti sa začneme stretávať s „automatizovanými“ útokmi, kde sa škodlivé technológie budú učiť a prispôsobovať samé v reálnom čase.

Napriek rýchlemu vývoju hrozieb môže byť kvalitná kybernetická obrana na tieto hrozby pripravená už dnes. Musí byť ale postavená na dobrých základoch, počítať aj s jej možným narušením, a využívať pokročilé technológie. Tie sa totiž môžu spolu s vašimi špecialistami ďalej zdokonaľovať, aby adekvátne čelili novým výzvam.

Investície do AI a kyberbezpečnosti preto môžu byť nielen ochranou pre súčasnosť, ale aj nevyhnutným základom pre digitálnu bezpečnosť v budúcnosti​.

Martin Lohnert, riaditeľ centra kybernetickej bezpečnosti void SOC od Soitronu

Andrej Jenčo, manažér oddelenia Data Intelligence, Millennium

menuLevel = 1, menuRoute = hn-special, menuAlias = hn-special, menuRouteLevel0 = hn-special, homepage = false
18. december 2024 21:54