Tomáš Meliško: Stáva sa umelá inteligencia nástrojom dehumanizácie?

Generatívna AI dnes zažíva boom, stala sa súčasťou našich každodenných debát a „ukrojila“ si obrovský kus pozornosti aj od médií. Navyše, dominuje nielen v diskusiách širokej verejnosti, ale aj IT odborníkov, akademikov či manažérov rôznych firiem. A niet sa čo diviť!

Tip na ECO darček: Ekologické dámske a pánske peňaženky – dizajnové, štýlové a ľahké

Vo svete AI sa toho deje veľa. Z každej strany sa na nás valia správy o spustení ChatGPT, pričom včera večer bola spustená už aj očakávaná najnovšia verzia OpenAI Chat GPT 4, ktorá má priniesť pokrok vo vyhľadávaní a eliminovať „halucinácie“ predošlej verzie. Navyše, neustále počúvame a čítame aj o masívnom investovaní Microsoftu do OpenAI, upozorneniach Googlu či o „šokujúcom prejavovaní pocitov“ chatbota Lambda. Deň čo deň tiež narazíme na diskusie o výhodách aj nevýhodách AI, jej využití v zdravotníctve, doprave a iných oblastiach. Práve tento „boom“ je ukážkou toho, že AI má výborne našliapnuté na to, aby urobila vo svete technológií obrovskú revolúciu. Čo nám priniesla prax beta verzií generatívnej AI, aký pokrok môže priniesť najnovšia verzia OpenAI Chat GPT 4 a kde sú najväčšie problémy AI a kde, naopak, príležitosti?

Ostrá rivalita, ošiaľ po spustení ChatGPT, ale aj dlhý zoznam obáv

Spomínané témy sa úspešne prepašovali do pozornosti každého z nás. Napríklad súboj testovacích verzií vyhľadávacích nástrojov Bing AI Search a Bard, medzi ktorými do budúcna určite vznikne ostrá rivalita. Táto téma tu rezonuje už roky, avšak „ošiaľ“ po spustení ChatGPT je naozaj pozoruhodný. Navyše, doplnený bol o dlhý zoznam obáv týkajúcich sa straty zamestnania, podvádzania pri písaní školských prác a testov či porušovania autorských práv.

Zo všadiaľ sa na nás valí masa informácií, ktoré sú častokrát protichodné. A ako už máme my ľudia vo zvyku, aj tu máme tendenciu riešiť skôr negatíva ako pozitíva. Je pravdou, že rozvoj AI ešte čaká dlhá cesta a je potrebné „vychytať viacero múch“. Nikdy by sme však nemali zabudnúť na jednu vec. A tou je, že AI nie je ľudský mozog, má obmedzenú pamäť a my ľudia sme neustále v kontakte so strojmi.

Umelá inteligencia v roli „Úprimnej klamárky“?

Niektorí odborníci predikujú, že v najbližších rokoch na nás pri spustení AI služby vyskočí varovanie, že na seba preberáme riziká a nemáme právo žalovať poskytovateľa. A to napríklad v prípade vyprodukovania nenávistného, násilného, nepravdivého či diskriminačného obsahu. Napokon, už dnes by sme mohli dlhé hodiny diskutovať o reálnych príkladoch z praxe. Napríkladnedávne faux pas pri predstavení služby Bard, ktorá nesprávne popísala teleskop Jamesa Webba. Jej beta verzia ChatGPT s istotou odpovedala faktami, ktoré neboli historicky pravdivé, vedecky podložené ani fyzicky možné. AI komunita toto správanie označila za „halucinačné“. Suma sumárum, umelá inteligencia sa v tomto prípade v podstate ocitla v roli „úprimnej klamárky“ či „konfabulátorky“. ClinMedjournal tieto pojmy spája s Alzheimerovou chorobou a demenciou ako „vytváranie falošných či chybných spomienok bez úmyslu klamať osobou, ktorá verí tomu, že skutočne komunikuje pravdivé spomienky“.

Spomínané spustenie Chat GPT 4 by však už týmto halucináciám mala vedieť predísť. Ak sa nad tým zamyslíme z iného uhla pohľadu, poškodenie mozgu nám môže spôsobiť tieto choroby a vedci si dodnes nie sú istí, ktorá časť mozgu za to môže. Rovnako je to aj s AI. Dnes už máme tendenciu pripisovať jej ľudské vlastnosti či správanie. Zabúdame však na to, že sme ľudia, ktorí sú v kontakte so strojmi. A tie sú len také spoľahlivé, ako ich milióny dielov. A aj tie sa môžu pokaziť a potrebovať úpravu. AI nefunguje ako mozog, má obmedzenú pamäť a ukladá minulé údaje a predpovede tak, aby mohla zlepšiť tie budúce.

Konfabulácia á la „Losos plávajúci po rieke“

K tejto téme sedí napríklad obrazový výstup Dall-E v rámci výzvy „losos plávajúci po rieke“. Je ukážkou toho, že AI nedokáže pochopiť symboly bez kontextu a ani pochopiť rozdiel medzi živým lososom plávajúcim v rieke a vypitvaným lososom nakrájaným na filety v obchode. Preto je výsledkom zmýšľania AI „rovnomerne nakrájaný filet lososa plávajúci po rieke“. Tak a teraz si predstavte tie miliardy údajov v generatívnej databáze AI, ktoré nemajú absolútne žiaden kontext!

Áno, ryby sú nevinným príkladom. Predstavte si však, že generatívnemu výsledku AI podlieha jednotlivec. AI v týchto prípadoch ovplyvňuje napríklad vysoko rizikový prípad použitia v zdravotníctve, rozhoduje o zamestnaní, presadzovaní práva, vláde či finančných službách. Toto už nie sú také úsmevné predstavy ako tá s lososom, nemyslíte?

Umelá inteligencia sa naučila klamať. Dokážeme sa vôbec vyhnúť katastrofe?

Odpoveďou na túto otázku sa zaoberala aj Daniela Amodei z Anthropic v podcaste Future of Life. Rozprávala tu aj o jednom z ich výskumov, ktorý odhaľuje, že modely rôznych veľkostí vykazujú rôzne bezpečnostné problémy. Niektoré z väčších modelov podľa nej prišli na to, ako neúmyselne klamať. Ak im položíte tú istú otázku inak, nakoniec môžete klamstvo odhaliť, no v iných kontextoch nie. A „zaklincovala“ to tým, že v generatívnych modeloch je naozaj veľa alarmujúcich modelov správania.

Samozrejme, riziká generatívnej AI neplynú len z týchto vecí. Dnes je veľkým problémom práve ľudský kapitál. Vo firmách, ktoré aktívne využívajú AI sa nevenuje pozornosť expertíze na zodpovedné škálovanie generatívnej AI. Spoločnosti si jednoducho budú musieť nájsť expertov na dátovú vedu a strojové učenie. Až potom môžu začať trénovať, testovať, spúšťať a školiť modely spoločne s globálnymi internými či externými dodávateľmi. Tí zase budú modelovať, monitorovať a moderovať výstupy a v prípade potreby eskalovať aj problematický obsah. Skvelou správou je, že pri riešeniu tohto problému môže prispieť aj slovenský projekt InoCloud. A to dátovou platformou, ktorá kombinuje vlastný software a hardware, vďaka čomu môžeme firmám podať pomocnú ruku.

Dostatok dátových vedcov a expertov nemáme na Slovensku, ale ani inde vo svete. Veľmi trefne to pomenovali na konferencii Gartner´s Data & Analytics v auguste 2022, kedy slovo „nedostatok“ talentov nahradili pojmom „kríza“. Napokon, potvrdzujú ju aj samotné čísla:

  • K februáru 2023 mal LinkedIn až 884 810 otvorených rolí vyžadujúcich prácu takýchto vedcov a 202 856 pre inžinierov strojového učenia. V súčasnosti je to viac ako 1 milión pracovných miest, pričom dopyt prevyšuje ponuku a priepastný rozdiel sa nezmenšuje
  • Podľa Bureau of Labor Statistics sú dnes dátoví vedci medzi 20 najrýchlejšie rastúcimi povolaniami s predpokladaným rastom 31 % v najbližších 10 rokoch
  • Do roku 2026 sa predpokladá až 11,5 milióna nových pracovných miest v tejto oblasti
  • Priemerná dĺžka pôsobenia dátového vedca vo firme je 1,8 roka. Začínajúce firmy teda čelia aj budúcim problémom ako je obrovský technický dlh a problém s udržaním si expertov, kým vysoké školy rekvalifikujú študentov v odboroch DSML/AI.
  • Článok Benjamina Hiltona „Prevencia katastrofy AI“ z augusta 2022 jasne poukazuje na to, že technická bezpečnosť AI, výskum, implementácia stratégie a politiky AI je zanedbávaná. Na znižovaní pravdepodobnosti existenčnej katastrofy súvisiacej s AI dnes pracuje len cca 400 ľudí

Čo dodať? Dupnime na plyn a začnime sa generatívnej AI detailne venovať po všetkých stránkach. Generatívna AI už dnes spôsobila revolúciu, a to takmer všade, kde sa pozrieme: e-maily, prezentácie, školské práce, marketing a tvorba obsahu, dizajn, skladanie hudby, filmová produkcia a podobne. Áno, odborníci pri svojej práci, v diskusiách a na konferenciách, hľadia na bežné výzvy škálovateľnosti pre generatívnu AI ako je výpočtový výkon, ochrana súkromia, nedostatok údajov či zaujatosť. Pri tom všetkom sme však zabudli na samotnú „mágiu“ technológie a prehliadame obrovské výzvy, ktoré sú potrebné na to, aby sa mohla generatívna AI škálovať zodpovedne v tom, čo sa nás ľudí bytostne týka.

O autorovi

Napíšte komentár

Napíšte hľadané slovo / slová a stlačte ENTER