freepik.com
StoryEditor

Prečo vaša firma potrebuje pravidlá používania ChatGPT a čo by mali obsahovať?

26.05.2023, 00:00

Prudko stúpajúca popularita ChatGPT a podobných aplikácií využívajúcich veľké jazykové modely so sebou priniesla aj ich prienik do podnikového prostredia.

Nástroje ako je ChatGPT od OpenAI, Bing AI od Microsoftu či Google Bard sú veľmi rýchle, jednoduché na používanie a dostupné pre všetkých. A tak nie je prekvapivé, že ich zamestnanci veľkých aj malých firiem začali používať na viacero činnosti. Medzi tie najpopulárnejšie patria

  • Vytváranie obsahu

ChatGPT vie napísať až prekvapivo dobrý príhovor, blog, email či komentár

  • Generovanie kreatívnych nápadov

AI behom sekúnd vytvorí celý zoznam možných otázok či odpovedí na želanú tému, pomôže Vám „vymyslieť“ názov pre článok, prezentáciu, alebo dokonca podnikateľský zámerov

  • Kontrolu a revidovanie textov

V texte AI nielen opraví gramatické chyby, ale môže podľa želania informácie zostručniť alebo viac rozviesť, zmeniť štýl na formálnejší, hovorovejší a celkovo zvýšiť kvalitu textu

  • Vyhľadávanie informácií

S AI aplikáciami sa vyhľadáva podobne ako pomocou Google alebo Wikipedie

  • Programovanie

Práve dvomi najčastejšími využitiami ChatGPT sa stali vytváranie nového a kontrola už napísaného programového kódu,

Spomínané systémy takto už dnes prispievajú k zlepšovaniu firemného obsahu, pomáhajú zamestnancom s niektorými úlohami alebo sa dokonca podieľajú na rozhodovacích procesoch. Ako to už býva, s adopciou revolučných technológií ale prichádzajú aj riziká, ktoré si však užívatelia vďaka prvotnému nadšeniu často neuvedomujú.

Riziká ChatGPT vo firemnom prostredí

Rovnako aj v tomto prípade, okamžitý prínos nástrojov využívajúcich LLM je taký veľký, že zvedavosť a nadšenie z nich výrazne vyhráva nad opatrnosťou.

Rizík, nad ktorými sa pri využívaní ChatGPT vo firme však treba zamýšľať, je hneď niekoľko.

Ochrana osobných a citlivých údajov

Pri používaní ChatGPT v podnikovom prostredí môže ľahko prísť k neželanému zdieľaniu osobných či iných dôverných údajov. Často ich do nástroja vloží priamo užívateľ ako súčasť zadania, neuvedomujúcich si že ich práve poskytol na spracovanie tretej strane. Je už známy aj prvý prípad kedy chyba v ChatGPT umožnila užívateľom vidieť spracúvané dáta iných užívateľov (názvy ich konverzácií).

Duševné vlastníctvo

„Trénovanie“ LLM je založené na spracovaní veľmi veľkého množstva rôznorodých a neznámych dát, ktoré môžu obsahovať aj materiály chránené autorskými a vlastníckymi právami. Použitie výstupov založených na nich tak môže viesť k sporom o ich vlastníctve a licencovaní medzi Vašou spoločnosťou a vlastníkmi obsahu, ktorý boli použitý pri trénovaní ChatGPT.

Škodlivý či zraniteľný kód

Počítačový kód vygenerovaný AI môže (rovnako ako ten písaný ľuďmi) obsahovať zraniteľné miesta alebo škodlivé komponenty. To môže viesť k jeho následnému použitiu a rozšíreniu zraniteľnosti do firemných systémov.

Nesprávne a nepresné výstupy

Aktuálna generácia AI nástrojov niekedy poskytuje nepresné či úplne nesprávne informácie.  Sú známe aj prípady kedy výstupy obsahujú skreslený, diskriminačný alebo nelegálny obsah.

Etické a reputačné riziká

Vaša spoločnosť byť vystavená rizikám práve pri prevzatí chybných výstupov ChatGPT vo firemnej komunikácií a ich následnom zdieľaní.

S ohľadom na tieto riziká sa nám zdá nevyhnutné definovať pravidlá, ako môžu, a majú, zamestnanci používať ChatGPT pri plnení pracovných úloh.

Takáto firemná politika by mala slúžiť ako kompas, ktorý spoločnosť a jej ľudí prevedie cez labyrint systémov umelej inteligencie eticky, zodpovedne a v súlade s platnými zákonmi a vyhláškami. Ešte dôležitejšie ale je, že organizáciu pomôžu ochrániť pred spomínanými rizikami.

Čo by mala obsahovať politika používania ChatGPT?

Pri definovaní Vašej firemnej politiky, by ste si v prvom rade mali ujasniť aký široký záber technológií má adresovať. Týka sa konkrétne ChatGPT? Alebo všeobcene nástrojov generatívnej umelej inteligencie? Pokrýva aj nástroje tretích strán, ktoré v sebe môžu zahŕňať prvky AI, alebo dokonca vývoj podobných riešení?

Vaša politika používania ChatGPT by mala začať záväzkom k ochrane osobných údajov a bezpečnosti pri práci s podobnými nástrojmi a stanoviť hranice tým, že jasne definuje prijateľné a neprijateľné použitie technológií.

Povolenie bez obmedzení

Mala by definovať spôsoby použitia, ktoré budú v organizácií povolené bez obmedzení. Môže ísť napríklad o rôzne typy marketingových aktivít - revidovanie materiálov pre verejné použitie, generovanie nápadov či základov materiálov pre ďalšie spracovanie. Aj tu však treba dôkladne zvážiť právne aspekty duševného vlastníctva a dať si pozor na známe úskalia nepresností a misinformácií.

Povolenie s dodatočnou autorizáciou.

Druhou skupinou by mali byť scenáre, kde využitie povolíte, ale s dodatočnou autorizáciou. Typicky to bývajú prípady, kde výstup z ChatGPT pred jeho ďalším využitím musí byť posúdený expertom (napr. v prípade počítačového kódu)

Úplný zákaz

A treťou kategóriou budú scenáre, ktoré sú úplne zakázané. Mali by sem z princípu patriť všetky ostatné spôsoby použitia, ale predovšetkým tie, kde užívatelia do ChatGPT vkladajú čokoľvek, čo obsahuje citlivé údaje (obchodné tajomstvá, osobné údaje, technické informácie, proprietárny kód a pod.)

Ako naznačujeme, politika by mala byť „ušitá“ na mieru vašej spoločnosti, a to potom ako dôsledne identifikujete súvisiace potenciálne riziká, hrozby a ich dopady.

Umožníte tým Vašej spoločnosti rýchlo využiť potenciál prichádzajúcich nástrojov umelej inteligencie, a zároveň hľadať a formulovať stratégiu pre ich začlenenie do existujúcich pracovných postupov a procesov.

 

Martin Lohnert, riaditeľ centra kyberbezpečnosti Void SOC Soitron

menuLevel = 1, menuRoute = hn-special, menuAlias = hn-special, menuRouteLevel0 = hn-special, homepage = false
19. apríl 2024 07:13