Keď sa ľudstvo vysporiada so súčasnými hrozbami, bude musieť prekonať ďalšiu existenčnú výzvu. Umelá inteligencia, na ktorej sa v rôznych kútoch sveta pracuje, môže v budúcnosti bez vopred daných právnych pravidiel a regulácií ľudstvo ohroziť, tvrdí bezpečnostný analytik Luděk Jiráček z českej organizácie Asociácie pre medzinárodné otázky.
Je umelá inteligencia (anglicky Artificial Intelligence - AI, pozn. red.) potenciálnou hrozbou budúcnosti?
AI patrí medzi ďalšie revolučné technológie, ktoré bude možné využiť v mnohých odboroch v prospech ľudstva. Zároveň však môže byť aj jednou z najzávažnejších hrozieb.
Prečo, veď vlastne ešte v pravom slova zmysle neexistuje?
AI má teraz nepredstaviteľný potenciál a zároveň konkurenčnú výhodu. To si hlavní aktéri medzinárodných vzťahov samozrejme uvedomujú, čo je možné vidieť aj na výrazných investíciách do tohto odboru. Je však pravdou, že v súčasnej dobe nie sú jednotlivé systémy plne automatizované a ich zručnosti sa nedokážu ani zďaleka porovnávať s fungovaním mozgu človeka. Na druhú stranu je AI stále viac v praxi využívaná a roboti dokážu riešiť komplexnejšie úlohy, čo môže z dlhodobého hľadiska viesť až k ohrozeniu našej existencie.
Ohrozenie ľudskej existencie v akom zmysle? Myslíte, že by sa robot s umelou inteligenciou vymkol kontrole? Veď predsa dogmatickým prvým zákonom robotiky podľa Isaaca Asimova má byť, že robot nesmie ublížiť človeku alebo svojou nečinnosťou dopustiť, aby bolo človeku ublížené...
Na túto problematiku je nutné sa pozrieť zo širšieho hľadiska - napríklad, ako nás už teraz ovplyvňujú moderné technológie, respektíve ako im dôverujeme a ako sme na nich závislí. V praxi im totiž odovzdávame viac právomocí, a to je zásadné nebezpečenstvo...
Dochádza v priamom prenose k degradácii našich schopností a zručností. Ak nám teda akákoľvek technológia ublíži, bude to len našou vinou, pretože ju tak naprogramujeme a budeme s výstupnými dátami neadekvátne pracovať. Ďalším problémom je, akú úlohu bude mať človek na tejto planéte a ako túto problematiku uchopíme legislatívne.
Pripadá mi, že svet vlastne ešte ani nevie, čoho sa báť a či sa báť?
Je to presne tak, pretože zatiaľ nevidíme hmatateľné následky. Mnoho popredných vedcov po celom svete sa však snaží informovať verejnosť o možných následkoch, respektíve sa snaží vysvetľovať problémy spojené s odovzdávaním čoraz viac právomocí počítačom a strojom (napr. Future of Life Institute).
Na druhú stranu je nutné povedať, že sa tiež už desiatky rokov obávame možnej jadrovej vojny. Avšak vďaka nukleárnym zbraniam doposiaľ nevypukla ďalšia svetová vojna. Všetci totiž vedia, že by takáto vojna mohla znamenať koniec ľudskej existencie.
Asi sa zhodneme, že umelá inteligencia predovšetkým vo zbraňových, ale aj bezpečnostných systémoch, má nepredstaviteľný potenciál. Máte nejakú predstavu, ako by mohla vyzerať v tomto smere napríklad bojová operácia budúcnosti?
Bojové operácie budú prebiehať stále vo všetkých súčasných operačných oblastiach - zem, voda, vzduch, vesmír a kybernetický priestor. Avšak oproti doterajším konfliktom sa budú viac využívať poloautonómne systémy a bude stále viac viditeľné prepájanie schopností človeka a robotov. To môžeme už teraz vidieť aj pri súčasných vojenských operáciách, kde majú napríklad bezpilotné lietadlá čoraz väčší význam. Čo príde potom, možno len ťažko predvídať...
Iste, už teraz je to ako z románov či poviedok, keď si uvedomíte, že vám na internete objednané tričko prinesie na záhradu zásielkový dron.
Vždy je to otázka nákladov a výnosov. Robotizácia a automatizácia systémov sa bude úmerne rozširovať s klesajúcimi nákladmi na inštaláciu takýchto systémov a so zvyšovaním ich efektivity. To možno okrem iného vidieť v mnohých výrobných fabrikách. Avšak možnosť využitia AI v obrannom priemysle predstavuje pre akéhokoľvek aktéra nepredstaviteľnú konkurenčnú výhodu.
Podľa šéfa britskej zbrojovky BAE Rogera Carra sa v súčasnosti snažia vyvíjať autonómnych robotov s cieľom "zabíjať" vo viac ako 40 krajinách. Možno vôbec nastaviť nejaké právne rámce a pravidlá uplatňovania takýchto zbraňových systémov?
Pre zavedenie legislatívnych opatrení je nutné najprv vedieť, ako by daný problém mal byť regulovaný. To v súčasnosti nevieme. K tomu, aby vznikla určitá zhoda pre zavedenie univerzálne a právne záväznej medzinárodnej zmluvy, je tiež potrebná určitá dôvera medzi aktérmi v medzinárodných vzťahoch. Tie sú však založené na nedôvere a každý, vrátane súkromných spoločností, bude mať záujem si zachovať spomínanú konkurenčnú výhodu. Ten, kto tvrdí, že niečo ako národné záujmy či suverenita sú precenené, sa škaredo mýli.
Čo sa týka možných regulácií počas vývoja týchto systémov, tie sú tiež veľmi problematické. Medzi hlavné dôvody môžeme zaradiť značnú diskrétnosť a utajovanosť jednotlivých výskumných fáz vývoja a rýchly vývoj nových technológií, kvôli ktorým by museli byť kontrolné mechanizmy pravidelne upravované a preto by boli aj finančne veľmi nákladné. Odpoveď teda bohužiaľ znie: nedá.
Existuje nejaká možnosť zneužitia vyvíjaných autonómnych alebo poloautonómnych robotov napríklad teroristami? Keď sa pozrieme na boje v irackom Mósule, tam si napríklad islamisti veľmi rýchlo osvojili boj s pomocou malých dronov, ktoré používali na atentáty. Na diaľku, nepozorovane a prekvapivo.
Osvojiť a zároveň zneužiť dá všetko, čo je možné aspoň čiastočne ovládať. Ako je však možné si osvojiť niečo, čo určitým spôsobom nemôžete ovládať či dokonca ani deaktivovať?