Koronakríza zväčšila rozsah aktivít, ktoré vykonávame online. Zanechávame tak čoraz väčšiu „dátovú stopu“. Využívanie dát na zdokonalenie rôznych činností prostredníctvom umelej inteligencie je jedným z veľkých trendov dneška. Deje sa to už roky, ale v súčasnosti sa čoraz viac hovorí o možných negatívnych dôsledkoch a o potrebe etickej regulácie. Zreálnime našu predstavu o rizikách umelej inteligencie.
Začnime pascou na myši. Jej účel by mala vyjadrovať veta: „Ak rozoznáš (škodlivú) myš, zabi ju.“ Pasca z domácich potrieb je zúfalo nepresná – zareaguje na laboratórnu bielu myšku, na Aničkinho škrečka s ružovou mašličkou aj na nohu námesačného. Sivá myška domáca sa pasci vyšmykne ako naschvál, lebo si návnadu zoberie veľmi opatrne.
Súčasná umelá inteligencia (angl. Artificial Intelligence, AI) dokáže pascu na myši podstatne vylepšiť. Cieľom nie je zmeniť účel pasce, teda vyššie uvedenú vetu, ale zlepšiť presnosť jej vykonania. Mala by pracovať ako ľudia – rozoznať situáciu, pochopiť širšie súvislosti a na základe nahromadených skúseností urobiť správnu akciu.
Strojové rozoznávanie skutočnosti
Prvým krokom pri vylepšovaní pasce je lepšie rozoznanie myši. Pridáme kameru, možno aj ďalšie senzory, ktoré rozlíšia napríklad prítomnosť živého tvora od plyšovej hračky. Rozoznávanie obrazov je dobrá ukážka oblasti, v ktorej ľudia zatiaľ vedú, ale stroje sa postupne zlepšujú.
Priateľa spoznáme aj na väčšiu vzdialenosť, pri zlom osvetlení či s rúškom. Ani sami nevieme ako – možno aj podľa ďalších znakov ako sú typická chôdza alebo zvuk topánok –, ale odrazu vieme, že to je on. Niekedy sa ukáže, že to bol omyl, ale v mnohých prípadoch je ľudský odhad aj na základe veľmi nedokonalých a neúplných informácií prekvapujúco správny.
Strojové rozoznávania obrazu (a ďalších zložitých druhov údajov) je v každom prípade zlepšením oproti súčasnému stavu, ale presnosť a spoľahlivosť rozoznávania objektov a situácií patrí k rizikám AI. Je kritická najmä vtedy, ak ide o zdravie a bezpečnosť pod časovým tlakom. Dokáže napríklad stroj rozoznať, či sa pred bezpečnostnou kamerou štuchajú kamaráti alebo prebieha pouličná bitka?
Rozhoduje stroj
Ďalším krokom je urobenie rozhodnutia. Bežná pasca čokoľvek vo svojej blízkosti považuje za škodcu a urobí „klap“. Potrebovali by sme inteligenciu, ktorá vyhodnotí obraz a ďalšie dostupné informácie a rozhodne sa… správne. Má urobiť „klap“ pre sivý objekt bez ružovej mašličky?
Snaha robiť lepšie rozhodnutia na základe dostupných údajov nie je nová. Napríklad rozhodnutie o pridelení úveru pre väčšinu z nás urobil stroj. Počítač štatistickými metódami vyhodnotil informácie o všetkých dlžníkoch banky a zistil faktory, ktoré najviac ovplyvňujú schopnosť splácať úver. Výsledkom bol vzorček rizika nesplácania úveru. Z vzorčeka je jasné, na základe čoho sa robí rozhodnutie, aj keď sa to spravidla nezverejňuje. Tento vzorček bol použitý na informácie o nás a výsledkom bolo schválenie alebo zamietnutie žiadosti.
Aj zobrazovanie reklamy na Googli alebo Facebooku je výsledkom strojového vyhodnotenia šance, že klikneme na inzerovaný tovar na základe našej „dátovej stopy“.
Výzvy strojového učenia
Rozhodovanie štatistickými metódami sa neodohráva na základe jednoduchého pravidla ako je „sivý objekt bez ružovej mašličky“, ale vyhodnotením viacerých faktorov určených strojom na základe doterajšej skúsenosti. Ešte ďalej idú takzvané neurónové siete, ktoré sa učia z dostupných dát podobným spôsobom, ako sa učí človek. Týmto počítačovým metódam sa hovorí aj strojové učenie alebo hlboké učenie (angl. machine learning, deep learning).
Na rozdiel od spomínaných štatistických metód výsledkom nie je vzorček, ale celkový stav „poučenej“ neurónovej siete. Neurónová sieť rozhoduje bez vysvetlenia dôvodu, čo sťažuje kontrolu spravodlivosti rozhodnutia. Preto sa investuje veľa úsilia do výskumu lepšej interpretovateľnosti strojových rozhodnutí.
Odborníci sa tým až tak nechvália, ale použitie strojového učenia už prinieslo aj niekoľko neslávnych výsledkov:
Ľudia sú omylní, korumpovateľní, konajú pod vplyvom emócií alebo únavy, ale uvedené príklady ukazujú, že ani stroj nemusí automaticky rozhodovať lepšie a spravodlivejšie. Z logiky veci dokonca vyplýva, že strojové učenie sa správa ako „AI konzervatívec so silnými predsudkami“, lebo ešte viac zvýrazní akékoľvek odchýlky, nespravodlivosti alebo nepokryté situácie, ktoré sa nachádzajú v údajoch použitých na učenie.
Etika pre umelú inteligenciu
Na odstránenie tohto „dedičného hriechu AI“ možno použiť rôzne metódy – napríklad zakázať strojové rozhodovanie na základe údajov ako sú pohlavie, vek, národnosť či náboženská príslušnosť. Aby to nebolo také jednoduché, použitie týchto citlivých údajov môže byť nutné pre situácie, ktoré sa v zvýšenej miere týkajú jedného pohlavia alebo vekovej kategórie. A čo tak používanie vulgarizmov na Facebooku alebo šírenie fake news?
Dá sa očakávať aj dlhá diskusia o tom, ktoré rozhodnutia zveriť strojom a kedy z nich urobiť iba poradcov, ktorí človeka upozornia na poznatky získané strojovým učením. Podobne zaujímavá je otázka zodpovednosti za škody spôsobené strojmi.
Cena ako kritériom správnej akcie?
Posledným krokom vylepšovania pasce na myši je výber akcie. Pre našu AI pascu to nebude až taký problém, ale rozhodovanie v reálnom svete môže znamenať výber vhodnej možnosti z miliárd kombinácií. A pritom rôzne alternatívy majú spravidla odlišné výhody, nevýhody a aj cenu.
Dôležitým slovom je optimalizácia. Matematické optimalizačné metódy sa mnoho rokov využívajú hlavne v logistike a výrobe – ako s čo najmenšími nákladmi rozviezť tovar alebo čo najlepšie využiť materiál. Zaujímavým momentom na premýšľanie je potreba nastaviť hraničné hodnoty premenných pre optimalizačný algoritmus. Počítaču je jedno, či sú nimi nosnosť kamiónu a maximálny čas rozvozu tovaru alebo dodržiavanie zákonov, ekológie a etických princípov.
Treba stanoviť aj kritérium optimálnosti. Môže sa to zdať prízemné, ale spravidla ním je cena. Skúsenosť hovorí, že najrýchlejšie alebo najkvalitnejšie riešenia sú málokedy najlacnejšie. Preto potrebujeme určiť prijateľné mantinely parametrov – napríklad kapacity systému, času trvania, kvality alebo ekologických požiadaviek – a v rámci nich stroj vyhľadá najlacnejšie riešenie.
Nepochybne tu vzniká pokušenie nechať umelú inteligenciu podliezať latku poctivosti za účelom zvýšenia zisku. Pri optimalizácii sa tiež stáva, že pre nastavené parametre žiadne riešenie neexistuje. Možno aj „stroje v úzkych“ budú podobne ako ľudia potrebovať plán B – inštinkt prežitia aj za cenu kompromisov a strát.
Hovorme o etike AI
Diskusia o etike umelej inteligencie už prebieha. Na rímskej konferencii Pápežskej akadémie pre život bola aj za účasti IT firiem prijatá „Rímska výzva za etickú umelú inteligenciu“, ktorá definovala niekoľko etických princípov. S viacerými z nich sme sa stretli v tomto článku: transparentnosť ako vysvetliteľnosť strojového rozhodovania, inklúzia na zohľadnenie potrieb všetkých, zodpovednosť pri využívaní možností AI, nestrannosť ako spravodlivosť a nediskriminácia, spoľahlivosť či rešpektovanie bezpečnosti a súkromia ľudí.
Literatúra:
Rímska výzva za etickú umelú inteligenciu, https://www.kbs.sk/obsah/sekcia/h/dokumenty-a-vyhlasenia/p/dokumenty-vatikanskych-uradov/c/vyzva-na-etiku-v-oblasti-umelej-inteligencie
Box, Jim a kol.: Human Bias in Machine Learning, https://www.sas.com/content/dam/SAS/support/en/sas-global-forum-proceedings/2020/4506-2020.pdf
Ak sa vám článok páčil, zdieľajte ho svojim priateľom a známym na sociálnych sieťach.