Reuters
StoryEditor

Vedci chcú overovať Trumpove lži "inteligentným" automatom

12.02.2019, 14:24
Politici radi hovoria, ale sú často na hranici s faktami. Americké médiá majú žatvy napríklad pri overovaní výrokov prezidenta Trumpa. Vývojári dokonca pracujú na nástroji, ktorý by vety politikov overoval v reálnom čase automaticky. Spoliehať sa na umelú inteligenciu pri overovaní môže byť lákavé, ale nebezpečné.

"Moje víťazstvo počítané na voliteľov bolo najväčšie od Ronalda Reagana," vyhlásil Donald Trump na tlačovej konferencii vo februári 2017, viac ako rok po svojom zvolení. Chvíľu nato sa ho Peter Alexander, jeden z prítomných reportérov, opýtal: "Povedali ste, že ste vyhral najväčším rozdielom voliteľov od doby Reagana so svojimi 304 (...) voliteľmi. Ale pritom prezident Obama získal 365 voliteľov..."

"Ja som hovoril o republikánskych," pokúsil sa Trump opraviť svoje tvrdenie tak, aby zodpovedalo tejto "novej" informácii. Ale Alexander pokračoval: "Prezident George H. W. Bush získal 426 voliteľov." Bush starší bol republikán, takže ani Trumpom pred chvíľou upravené tvrdenie evidentne nesedelo. "Tak prečo by vám Američania mali veriť?" pokračoval Alexander v otázke.

"Neviem, no. Dali mi túto informáciu," obrátil okamžite Trump. "Dostal som túto informáciu. Dokonca som tú informáciu niekde videl. Ale bolo to výrazné víťazstvo."

Tento moment bol celkom neobvyklý. Nie tým, že Donald Trump povedal niečo nepresné alebo nepravdivé. To sa stáva pomerne často a podľa niektorých spolupracovníkov ide o Trumpovu komunikačnú stratégiu. Ale okamih bol výnimočný tým, že Trumpovi niekto z prítomných takmer bez oneskorenia ukázal, že išlo o nepravdu. A prezident Trump - po prvotnom pokuse ubrániť aspoň čiastočne pôvodné tvrdenie - uznal, že sa mýlil, a plynule pokračoval v tlačovej konferencii.

Overovanie výrokov politikov: Pravda alebo nepravda?

Overovanie výrokov - tzv. fact-checking - nie je nový žáner. Naopak, patrí to k štandardnej práci novinárov. S nástupom internetu je však pre čitateľa jednoduchšie dohľadať informácie o tom, či je konkrétny výrok pravdivý alebo nepravdivý. Prípadne či je zavádzajúci, mieša hrušky s jablkami, alebo či je s využitím dostupných dát neoveriteľný.

Stále je však lopta na strane čitateľa, konzumenta, voliča. Je na ľuďoch, či sa budú zaujímať o to, či ich (ne)obľúbený politik v danom prípade hovoril pravdu. Alebo ako je na tom dlhodobo s polopravdami a zavádzajúcimi tvrdeniami. Overenie sa neobjaví "samo", čitateľ po ňom musí pátrať.

A práve to sa niektorí programátori a vedci rozhodli zmeniť. Pozrieme sa na to, ako k tomu chcú využiť umelú inteligenciu, aké sú výhody ich riešenia a prečo je to podľa nás zaujímavý, ale v dôsledku nebezpečný smer, píše Technet.cz. Aj keby totiž automatické overovanie fungovalo perfektne a bezchybne - čo nebude vôbec jednoduché - zostáva tu problém toho, aký vplyv by malo automatické overovanie na ľudskú psychiku. Pre technooptimistov je typické predvídať, že technológia pomôžu vyriešiť problémy ľudstva, a pritom prehliadať, ako môžu naopak tie rovnaké technológie vziať ľuďom schopnosti orientovať sa vo svete.

Vízia: "Umelá inteligencia" overuje v priamom prenose

Strojové učenie zažíva v posledných rokoch masívnu expanziu. V mnohých odboroch, ako je napríklad strojová analýza obrazu alebo automatický preklad reči, pomohli neurónové siete (často označované skratkou AI, teda "umelá inteligencia") vyriešiť staré problémy až s nečakanou úspešnosťou. Myšlienka zapriahnutia týchto neurónových sietí do automatizovaného overovania pravdivosti výrokov na seba teda nenechala dlho čakať.

Už v roku 2016 usporiadala americká Duke University konferenciu na tému automatizovaného fact-checking. Okrem teoretických prednášok tú tímy predviedli jedenásť prototypov nástrojov, ktoré majú pomôcť s overovaním pravdivosti výrokov. "Myslím, že za desať rokov budeme mať okamžité, automatizované vyhľadávanie v už overených výrokoch," predpovedal vtedy Bill Adair, novinár a zakladateľ portálu PolitiFact. "Budeme sa pozerať na televíziu, kde bude hovoriť politik, a keď ten politik povie nezmysel, tak vyskočí automatická autentifikácia a napíše, že je to nepravda."

Nie všetci boli takí optimistickí a nepredpokladali, že by išlo automatizovane overovať všetky typy výrokov: "Očakávam, že vďaka automatickému fact-checking niektoré jednoduché typy neprávd, ako napríklad, že nezamestnanosť bola minulý rok X percent, úplne vymizne, zatiaľ čo dnes sú veľmi časté," domnieval sa Alexios Mantzarlis, riaditeľ Medzinárodnej siete fact-checker.

Hoci nikto presne nemôže vedieť, ako bude vyzerať fact-checking v novinách alebo v televízii za osem alebo desať rokov, odborníci sa na konferencii zhodli, že súbor úkonov, ktoré je teraz nutné robiť ručne, zvládnu bez väčších problémov automatizované systémy. Podobne, ako dnes funguje kontrola pravopisu a gramatiky, tak by v budúcnosti mohlo fungovať aj overovanie faktickej správnosti.

Súčasnosť: Počítač rozpozná "overeniahodné výroky"

K takémuto míľniku však máme teraz asi tak ďaleko, ako mala kontrola pravopisu z 90. rokov ďaleko k spoľahlivej korektúre textu. Prvým problémom je samotná identifikácia toho, čo by malo byť overované, teda detekcia "overeniahodných výrokov". Nie všetko, čo politik povie, si zaslúži overovanie. Niečo sú politické sľuby, niečo zdvorilostné frázy a niečo je obyčajný pozdrav (aj keď fact-check obyčajného "dobrý večer" by mohol byť zábavný).

Súčasné overovacie systémy však robia pokroky, a tak napríklad najznámejší z nich - ClaimBuster - vie v reálnom čase identifikovať výroky, ktoré podľa analýzy kľúčových slov obsahujú faktické informácie hodné overenie.

Každá veta dostane číslo od nuly do jednej, kde nula značí "nefaktický, subjektívny alebo názorový" výrok, zatiaľ čo vyššie skóre dostanú výroky, ktoré obsahujú overiteľné fakty. Napríklad, ak do ClaimBusteru vložíme na analýzu Trumpov prejav State of the Union z roku 2018, sú "overeniahodné výroky" vyhodnotené takto (vybrali sme vety na začiatku, v strede a na konci vygenerovanej tabuľky):

  • "Typická štvorčlenná rodina zarábajúca 75-tisíc dolárov ročne bude platiť o dvetisíc dolárov nižšie dane, čo zníži ich dane na polovicu." (0,83 - zaslúži si najviac overiť)
  • "Od volieb sme vytvorili 2,4 milióna nových pracovných pozícií, vrátane 200-tisíc len vo výrobe." (0,80)
  • "Americkí daňoví poplatníci tým samým krajinám štedro posielajú miliardy dolárov každý rok." (0,50)
  • "Američania plnia svet umením a hudbou." (0,28)
  • "Čoskoro sa budú továrne otvárať po celej krajine." (0,28)
  • "Ak tvrdo pracujete, ak si veríte, ak veríte v Ameriku, tak môžete snívať o čomkoľvek, byť kýmkoľvek, a spoločne môžeme dosiahnuť čohokoľvek." (0,06 - nie je čo overovať)

Nástroj ClaimBuster (popis v PDF) využíva strojové učenie hneď niekoľkokrát. Najprv identifikuje výroky hodné overenia. K natrénovanej neurónovej sieti poslúžili dáta z prezidentských debát 2016, ktoré boli ohodnotené dobrovoľnými vyplňovacími dotazníkmi na škále "obsahujúce faktické overiteľné tvrdenie alebo nie". Podľa vedcov je tento nástroj spoľahlivý asi na 75 percent v tom zmysle, že dokáže identifikovať vety, ktoré sú podstatné a vhodné k faktickému overeniu, podobne ako vybrané mediálne organizácie.

Ďalším modulom ClaimBusteru je nástroj pre "párovanie". Overovaný výrok skúsi nájsť v databázach už overených výrokov. Pri vyhľadávaní teraz ClaimBuster kombinuje nástroje Elasticsearch s Semilar k nájdeniu rovnakých alebo podobných výrokov. To funguje veľmi spoľahlivo vtedy, keď politik opakuje v minulosti overený výrok.

V prípade, že ide o výrok úplne nový, dostáva sa súčasná verzia ClaimBusteru na trochu tenší ľad. Algoritmus sa pokúsi nájsť faktické časti výroku a dať ich dohromady s tým, čo je možné overiť v znalostných databázach. Nezabúdajme pritom, že počítačový program zvyčajne nerozumie tomu, čo daná veta hovorí, rozhodne nie rovnakým spôsobom, ako chápeme slovo "rozumie" v prípade ľudí (hoci niektoré systémy sa to snažia veľmi dobre napodobňovať).

Namiesto toho nastupuje štatistika vylepšená o niekoľko zaujímavých trikov. Zjednodušene povedané to funguje tak, že počítač na základe overovaného výroku vygeneruje veľké množstvo otázok a tieto otázky potom položia vyhľadávaču (dnes využíva Wolfram Alpha a Google). "Ak je možné na základe vrátených výsledkov identifikovať jasné rozpory, tak je možné túto informáciu využiť pri vytvorení verdiktu, ktorý je zobrazený užívateľovi," opisujú autori ClaimBusteru. Okrem toho sa systém tiež snaží hľadať kontext, zatiaľ opäť pomocou prvých výsledkov vo vyhľadávaní Google.

Všetky získané informácie, vrátane odpovedí na vygenerované otázky (ktoré môžu, ale nemusia súvisieť s pôvodným výrokom) sú využité na vytvorenie "správy", ktorá sa zobrazí používateľovi, ktorý má záujem o viac informácií. Betaverzia tohto systému je dostupná online, pri našom testovaní však často nefungovala, alebo fungovala len čiastočne.

Obávame sa, že optimizmus v tomto prípade nie je oprávnený. Rovnako, ako nadšenie ľudia predpovedali, že telegraf, telefón, rozhlas alebo internet zabráni budúcim nedorozumeniam a konfliktom - čo bola zjavne nádej nepárna - tak sa teraz rada ľudí upína strojom učenia a umelej inteligencii ako k tej technológii, ktorá konečne pomôže ľuďom rozpoznať faloš od reality a pravdu od lži.

Chceme ukázať niekoľko dôvodov, prečo považujeme tento technooptimismus za problematický a dokonca kontraproduktívny.

Problém č. 1: Nepresnosti pri analýze

Prvá pripomienka je jasná a vychádza z aktuálnej skúsenosti s beta verziou produktu ClaimBuster. Po asi hodine, keď sme skúšali rôzne anglické výroky, politické i apolitické, máme dojem, že v súčasnej podobe je program veľmi nespoľahlivý.

ClaimBuster zvládne identifikovať už známe a overené výroky, to vie celkom dobre. Takáto vec sa môže zdať užitočná niekomu, kto vidí ClaimBuster ako "liek na Trumpa", pretože Donald Trump je známy tým, že svoje obľúbené frázy a výroky často a rád opakuje: napríklad hovorí, že jeho daňová úľava bola najväčšia v histórii, hoci vo skutočnosti ide "iba" o ôsmu najväčšiu úľavu; v rôznych obmenách túto frázu zopakoval viac ako stokrát, možno ako spôsob, ako získať potlesk od obecenstva. Ale navrhovať nástroj na overovanie výrokov, ktorý je šitý na mieru jednému politikovi, by bolo nesmierne krátkozraké, nehľadiac na to, že by to zaváňalo neobjektivitou.

Aby bol overovací algoritmus dôveryhodný a užitočný, musí si poradiť aj s výrokmi, ktoré zaznejú úplne prvýkrát. A tu sa obávame, že ide o úlohu zatiaľ mimo možnosti súčasného stavu sémantickej analýzy. Aby počítačový program dokázal úplne samostatne overovať výroky, musel by chápať nielen tabuľky a dáta, ale tiež veľké množstvo komplexných súvislostí, náznakov, rétorických figúr, ironických narážok, vtipov, argumentačných faulov alebo právnických obratov.

Súdiac podľa súčasných schopností Asistenta Google možno sledovať určitý pokrok vo vyhľadávaní odpovedí na faktografické otázky. Vždy však ide o odpovede na otázky, ktoré už niekto položil. Overovanie nových výrokov je v tomto ohľade neskonale zložitejšie.

Problém č. 2: Objektivita a neutralita zdrojových dát

Povedzme však, že by sa neurónová sieť (alebo kombinácia rôznych neurónových sietí, štatistických nástrojov atď.) skutočne vyšplhala až na úroveň priemerného človeka schopného vnímať význam textu v súvislostiach. Aj potom by zostali rovnaké problémy a výhrady, ktoré máme už dnes voči fact-checkingovým agentúram a službám: "Čo robíte pre to, aby ste boli neutrálne?"

Je to otázka oprávnená. Fact-checking ostatne nie je v jadre nič iné ako vyhľadanie súvisiacich dát, zasadenie dát do kontextu a posúdenie toho, či táto dáta či kontext dokladajú, či vyvracajú overovaný výrok.

Či už teda overovanie vykonáva človek, organizácia alebo hypotetický inteligentný algoritmus, je tu priestor pre rôzne druhy skreslenia alebo "naklonenie":

  • Výber výrokov - už len tým, aké výroky na overenie vyberieme, môžeme značne ovplyvniť celkové vyznenie. Preto je potrebné, aby bola služba maximálne transparentné v tom, aké výroky k overovanie vyberá a prečo. Neurónové siete však nie sú povestné transparentnosťou, naopak, často je aj pre ich vývojárov záhadou, čo konkrétne má na ich verdikt vplyv.
  • Kvantita miesto kvality - je dôležité brať pri fact-checking ohľad na vysvetlenie toho, prečo je nejaký výrok označený za nepravdu. Inak by mohlo overovanie vyústiť v nezmyselné porovnávaní "počtu" klamstiev namiesto toho, o aké lži išlo. Kvantitatívna analýza je však pre počítač oveľa jednoduchšia a navyše pôsobí objektívne.
  • Zdroje použité pri posudzovaní - častým nešvárom akejkoľvek mediálnej organizácie je prílišné spoliehanie na vlastné zdroje. U fact-checkingovej agentúry to môže znamenať, že často odkazuje na svoje predchádzajúce závery. To dlhodobo môže viesť k selektívnej prácu s faktami. Liekom na tento nešvár je vyhľadávanie rôznorodých, dôveryhodných a nezávislých zdrojov. U počítačovej analýzy by však bolo možné natrénovať overovanie na akýchkoľvek dátach a týmito trénovacími dátami zásadne ovplyvniť výsledky.

V praxi by to mohlo vyzerať tak, že rôzne televízie by si vyvinuli svoje vlastné automatizované overovače. V reálnom čase by potom divákom zobrazovali "merač pravdivosti" alebo napríklad "detektor kecov". Takéto číslo by pôsobilo objektívne, veď "dáta sú overované automaticky", bez ľudského zásahu.

Lenže záleží na tom, na čom sa neurónové siete trénovali. Napríklad overovací algoritmus, ktorý by sa vytrénoval na dátach CNN alebo MSNBC, by určite predkladal iná "objektívne" hodnotenie výrokov, než počítač, ktorý by sa učil na dátach, správach a výrokoch televízie Fox News. Obidva verdikty by pritom boli výsledkom "neutrálnej" analýzy. Lenže ak nie sú neutrálne vstupné dáta (čo nie sú prakticky nikdy, ide skôr o to, ako ich skreslenie popísať a zviditeľniť), nemôže byť úplne neutrálny ani výsledok odvodený z týchto dát.

Každá televízna stanica by mohla mať svoju vlastnú metódu, vlastné umelú inteligenciu, ktorá by - na základe tréningu - dávala výsledky na mieru "svojmu" publiku. Takéto nuansy by zrejme väčšine divákov unikli. Bolo by to predsa "neutrálne" a "bez zásahu človeka".

Už dnes si časť publika často neuvedomuje, do akej miery sa voľbou mediálnych obsahov vydáva napospas vlastným kognitívnym omylom, predovšetkým potvrdzujúcim obmedzenia, skupinovej dynamike a efektu obyčajnej expozície.

Obávame sa teda, že nástroj, ktorý by mal slúžiť k lepšej kontrole politikov a odhaľovaniu známych neprávd, by v skutočnosti mohol ešte prispieť k tomu, že by ľuďom potvrdzoval to, čo už si myslia, a ešte tomu dával "punc objektivity" - veď to predsa overila "umelá inteligencia".

Problém č. 3: Možnosť prispôsobenia textu overovaču

Skúsme si predstaviť, že by sa oba dva prvé problémy nejako vyriešili. Je to síce takmer za hranicou našej predstavivosti, ale predpokladajme, že žijeme vo svete, kde sa všetky médiá a všetci diváci zhodli, že budú pri overovaní výrokov politikov veriť konkrétnemu, inteligentnému, sémanticky chápavému algoritmu. Nuž, potom sa dostávame k ďalšiemu problému, a tým je predvídateľnosť.

Povedzme, že ste učiteľ slovenčiny a chcete dať študentom nejaký ťažkú domácu úlohu týkajúcu sa gramatiky. Viete však, že študenti majú k dispozícii pokročilé nástroje na kontrolu gramatiky (v slovenčine ich zatiaľ veľa nie je, ale pohybujeme sa teraz v hypotetickej rovine). Ak chcete, aby študenti zapojili hlavu, vyskúšate napred, či vami zadaná úloha "prejde" kontrolou týchto nástrojov.

Alebo povedzme, že ste plagiátor, a nechcete byť odhalený automatickým systémom na rozpoznávanie opísaných textov. Potom pred odovzdaním práce vyskúšate, či váš text takýmto systémom prejde bez povšimnutia. Ak nie, upravíte slovosled, zameníte niektoré slová synonymami, a to tak dlho, kým systém nebude hlásiť 0 percentnú zhodu s ostatnými dielami.

A rovnako tak by bolo možné, zvlášť u plánovaných vystúpení, vyladiť prejav tak, aby neobsahoval "rozpoznateľné" nepravdy. To by viedlo k ľahkému obchádzaniu kontroly aj v prípade, že by bola veľmi dobrá a veľmi férová. Politik by mohol vopred svoj prejav pripraviť tak, aby dostal dobré hodnotenie,  napriek faktom.

Problém č.4: Nemožnosť overiť proces overovania

Dostávame sa do teritória, kde sa "problém umelej inteligencie" veľmi podobá tomu, čo riešia psychológovia u ľudí: nevieme, prečo sa rozhodujeme, ako sa rozhodujeme. A zatiaľ čo u ľudí sú nevedomé vplyvy na naše rozhodovanie obvykle z oblasti kognitívnych omylov alebo emócií, u neurónových sietí je vplyv nemenej komplikovaný a pre človeka ešte horšie pochopiteľný.

Neurónová sieť je na prvý pohľad "len" počítačový kód. Pod pokrievkou nájdeme bublajúcu zmes, ktorá je výsledkom miliónov alebo miliárd "učiacich cyklov". Počítač sa na základe metódy pokusov, omylov, trénovania, korekcií, náhodných variácií a štatistických metód cyklus od cyklu zlepšuje podľa vopred daných kritérií. Neurónové siete skôr než klasický počítačový kód plný cyklov a funkcií pripomína organický proces prispôsobovania sa prostrediu a evolučné prežitie silnejšieho algoritmu.

Nie je nikto - programátorov nevynímajúc - kto by mohol naplno porozumieť tomu, prečo napríklad neurónová sieť služby Google Translate preložila vetu "I am only (...) a clanging cymbal" ako "Som len (...) zvonenie cinkálov." Programátori často žasnú , čo sa neurónová sieť na základe trénovacích dát naučila. "Trebárs preklad z poľštiny sa zlepšil, keď sme využili dáta získané trénovaním umelej inteligencie na textoch vo vietnamčine alebo thajčine. Je to tak trochu čierna skrinka," vysvetlil nám Barak Turovský, ktorý vedie skupinu pre vývoj služby Google Translate.

Čo to znamená pre automatizovaný fact-checking? Nemožnosť overiť, akým spôsobom overenie vzniklo. To, že je overenie automatického overovača prakticky nemožné, bráni diskusii a spätnej kontrole, ktorá je inak dôležitou súčasťou každého procesu, ktorý si robí ambície smerovať k systematickému popisovanie reality.

Ľudskí overovači vysvetľujú svoje závery. Odkazujú svoje zdroje, zdôvodňujú, prečo pri overovaní postupovali tak, ako postupovali, prípadné pripomienky riešia a vyjadrujú sa k nim. Sú to omylní ľudia, ktorí pri overovaní používajú postupy navrhnuté tak, aby tieto omyly boli do značnej miery "skrotené" alebo aspoň transparentne priznané.

"My sa snažíme pracovať s verejne dostupnými zdrojmi, prípadne sa potom opýtame inštitúcií, keď tie zdroje dostupné nie sú," približuje prax Lenka Chudomelová z českého overovacieho servera Demagog.cz. "V podstate by ale mal ktokoľvek byť schopný dôjsť k tomu výsledku, ako my. A ktokoľvek si môže naše overenie overiť. Čitatelia nám často posielajú pripomienky, keď sme niečo prehliadli, takže tam funguje aj táto kontrola."

V zdôvodnení je nutné vysvetliť, v čom je daný výrok pravdivý alebo nepravdivý. Je tu priestor pre prípadné poľahčujúce okolnosti alebo doplňujúce informácie.

Trebárs keď Donald Trump uviedol, že v roku 2016 bol najvyšší počet vrážd za posledných 45 až 47 rokov. Nebola to zďaleka pravda (rekord drží rok 1991), a výrok tak ohodnotený ako "nepravda". Avšak vysvetľujúci text poukazuje na to, že podobné Trumpove tvrdenie o "najväčšom medziročnom náraste počtu vrážd" je pravdivé.

Možno teda špekulovať o tom, že Trump sa dopustil nepravdivého výroku tak, že "zjednodušil" pôvodne pravdivý výrok. V minulosti bol server PolitiFact novinármi kritizovaný za to, že možný omyl hodnotil ako "nehoráznu nepravdu", a PolitiFact sa z toho zrejme poučil a v neskorších hodnotení túto možnosť uvádzal.

Takéto zasadenie do kontextu je ukážkou práce dobrého fact-checker, ktorý vie hľadať argumenty na podporu autora výroku. Pomáha tak čitateľovi lepšie pochopiť kontext. Čitatelia môžu tento kontext posúdiť a prípadne overovače upozorniť na niečo, čo prehliadol alebo zle spracoval. V prípade automatického generovania verdiktov by však bolo prakticky nemožné overiť, ako počítač k tomu verdiktu došiel. To by časom viedlo k tomu, že by nebol nikto, kto by mohol "strážiť strážcu", respektíve "overovať overovačov".

Problém č. 5: Automat namiesto kritického myslenia

Keď Facebook vo februári 2017 oznámil, že bude označovať "falošné správy", využíval k tomu práve dáta od tretích strán, teda od overovacích služieb. Od označenia "podozrivých správ" si sociálna sieť sľubovala, že čitatelia budú takéto správy menej zdieľať a šírenie nepravdivých/falošných správ sa spomalí.

V decembri 2017 však Facebook zverejnil výsledky takmer ročného testovania. Označovanie falošných správ nielenže nepomohlo, ale v niektorých prípadoch situáciu ešte zhoršilo. U niektorých užívateľov viedlo označenie nimi obľúbeného názoru za názor "vyvrátený treťou stranou" na upevnenie tohto presvedčenia namiesto jeho oslabenia.

Ďalším problémom je samotné označovanie nepravdivých správ. Ľudia, ktorí si zvyknú na to, že nepravdivé či podozrivé správy sú označené výkričníkom, sa potom stavia menej kriticky k tým, ktoré takto označené nie sú. Paradoxne tak dôjde k celkovému oslabeniu "imunitného systému" čitateľa, ktorý je tak menej odolný voči manipulácii.

Toho istého efektu sa obávame u automatizovaného systému overovania, ktorý by v reálnom čase kontroloval pravdivosť politikov. Hrozí podľa nás reálne nebezpečenstvo toho, že by si publikum zvyklo spoliehať na verdikt automatického asistenta, čo by viedlo k zníženej schopnosti kritického myslenia alebo rozpoznávania manipulácie.

Opäť si vypomôžeme prirovnaním. Trebárs s kontrolou pravopisu, čo je funkcia, ktorú dnes v rôznych podobách využíva väčšina ľudí, veď kontrola pravopisu je v podstate zabudovaná priamo do prediktívnych klávesníc na mobilných telefónoch. Pretože vieme, že počítač overí náš pravopis, máme menej dôvodov nútiť náš mozog, aby si pamätal pravopis slov ako výnimka, pointa alebo afganský. Kedykoľvek dostupný adresár mobilného telefónu zase znamená, že už nemusíme vyťukávať čísla našich priateľov a známych. Výsledkom je, že nepoznáme skoro žiadne čísla naspamäť. Nepotrebujeme to, tak sa mozog naučil tieto informácie ignorovať a spoliehať na technologickú vymoženosť.

Všadeprítomné overovanie pravdivosti výrokov - či by bolo sebaspoľahlivejšie - by viedlo k zakrňovaniu dôležitej ľudskej schopnosti: skepticky, kriticky a systematicky overovať výroky. Strata takej schopnosti je potom u politických rozhodovaní obzvlášť problematická, pretože na možnosti verejne diskutovať o politických témach stojí systém priamej aj zastupiteľskej demokracie.

Hlavný problém teda vidíme v tom, že automatizované overovanie by si získalo "punc nestrannosti" a viedlo by k prehĺbeniu už tak problematických ľudských vlastností: lenivosti kriticky premýšľať a ochotne prijímať len tvrdenia, ktoré podporujú to, čo už si beztak myslíme. Pár rokov s takýmito nástrojmi by stačilo na to, aby sme sa namiesto vlastného úsudku spoliehali na náš obľúbený automatický overovač. V už tak komplikovanom svete by sme sa tým vzdali možnosti ho pochopiť.

Automatizované overovací sú zatiaľ v plienkach. V rôznej forme je čiastočne využívajú niektoré fact-checkingové organizácie a novinárske redakcie pre urýchlenie práce pri analýze a úverovania. Počítače teraz "vytipujú", čo by sa malo overovať, ale reálna overovacia práca stále pripadá ľuďom z mäsa a kostí. Len je tá práca trochu menej mravčia a skúsený analytik tak dokáže overiť viac výrokov a dát.

Niet však pochýb, že v horizonte niekoľkých rokov sa - aspoň v nejakej forme - objavia systémy, ktoré budú tvrdiť, že zvládnu celý proces overovania v reálnom čase. Mali by sme na ne byť pripravení, uvedomovať si ich riziká a ich nevýhody. Spoliehať sa na to, že umelá inteligencia bude tým "neutrálnym a dôveryhodným sudcom", ktorý konečne druhej strane barikády vysvetlí, že pravda je na vašej strane, je naivná. Pravdepodobné naopak je, že nás taký "overovací automat" ešte o ďalší krok vzdiali spoločne prežívanej realite. A dohoda naprieč spoločnosťou tak bude ešte ťažšia.

01 - Modified: 2024-12-19 23:00:00 - Feat.: - Title: Zánik Babylonu vďaka AI pomôže EÚ 02 - Modified: 2024-12-19 13:01:54 - Feat.: - Title: Radar s umelou inteligenciou môže odhaliť opitých vodičov. Už sa testuje v prevádzke 03 - Modified: 2024-12-12 18:00:00 - Feat.: - Title: Ukrajina nasadí do boja nového robota s guľometom. Cieľ zameria pomocou umelej inteligencie 04 - Modified: 2024-12-11 11:00:00 - Feat.: - Title: Mali by sme prestať veriť videám? OpenAI oficiálne vydalo verejnosti svoj generátor videí 05 - Modified: 2024-12-04 22:39:07 - Feat.: - Title: Slovensko chce pokračovať v líderskej úlohe v globálnom riadení AI, povedal štátny tajomník Rašiho rezortu
menuLevel = 2, menuRoute = science/nove-technologie, menuAlias = nove-technologie, menuRouteLevel0 = science, homepage = false
22. december 2024 12:47