Umelá inteligencia v zdravotníctve: Krok vpred alebo riziko pre naše zdravie?

Od umelej inteligencie v medicíne majú mnohí ľudia veľké očakávania. A niet divu! Už len jej čiastkové úspechy zo súčasnosti nám veľa napovedajú o potenciáli, ktorý AI v sektore zdravotníctva má.

S jej narastajúcimi schopnosťami a frekvenciou využívania sa však otvárajú aj otázky týkajúce sa bezpečnosti dát pacientov či etiky, ktoré sme v zdravotníctve doteraz nikdy nepotrebovali riešiť. Čoraz častejšie sa preto začína hovoriť o nutnosti regulácie. Čo však od nej môžeme očakávať?

Umelá inteligencia z nás nerobí neomylných, varuje expert

Faktom je, že umelá inteligencia (AI) je neustále v prudkom vývoji. Jej súčasné verzie totiž častokrát obsahujú nielen rôzne vtipné a bizarné, ale aj závažnejšie chyby. Za zmienku určite stojí vyjadrenie Dr. Lance Eliota. Ten vo svojom článku popísal niekoľko rizík, na ktoré si treba dávať pri práci s generatívnou AI pozor. Niektoré z týchto zásad pritom vieme preniesť aj na iné odvetvia AI, a teda aj na medicínu.

Tip redakcie: Jednoduchý a rýchly spôsob nákupu Bitcoinu a iných kryptomien

Eliot napríklad varuje pred akýmsi „falošným presvedčením o neomylnosti“. Mnoho ľudí totižto pri používaní AI automaticky nadobudne pocit, že všetky jej výstupy sú správne alebo pravdivé. A to je veru chyba! Asi nikomu nemusím vysvetľovať, že to tak nie je. Stačí, ak systému zadáme chybné vstupné dáta a omyl je na svete. V minulosti sa dokonca vyskytli prípady, kedy si AI chýbajúcu informáciu jednoducho vymyslela. A nikomu určite netreba zdôrazňovať ani to, aké nebezpečné to môže byť v zdravotníctve, kde sú v hre ľudské životy.

Práve preto experti zdôrazňujú mimoriadnu dôležitosť ľudského faktoru – AI nám vie dať o pacientoch cenné dáta, ku ktorým by sme sa inak nedostali, ale ich kontrolu a finálne rozhodnutia by mali vykonávať kvalifikovaní experti. A tí by s týmito dátami nikdy nemali zaobchádzať ako s jasnými faktami, ale domnienkami, ktoré buď potvrdia alebo vyvrátia.

AI chatboti ako „pomocná barlička“ pri duševných problémoch

Je tu aj ďalšie zaujímavé čítanie, ktoré stojí za zmienku. V médiu Conventus Law nedávno vyšiel zaujímavý článok, ktorý nám ponúka nielen ďalší pohľad na AI v zdravotníctve, ale aj dôvody vedúce k hlasom volajúcim po jej regulácii. Článok sa zameriava na legislatívny sektor, ktorý je známy svojim obrovským pracovným tlakom či stresom, ktoré častokrát vedú k psychickým problémom alebo vyhoreniu ľudí. Čo je však na tom úplne najhoršie? Prípadov pribúda a expertov je alarmujúco málo!

AI sa však javí ako sľubné riešenie, ktoré by mohlo tento problém zmierniť. Lepšia diagnostika ochorení, vývoj inovatívnych terapií, či individuálnejšie prístupy pri liečbe, sú podľa mňa benefity, ktoré by ocenili aj zamestnanci v iných odvetviach. Už dnes sa napríklad používajú terapeutické AI chatboty, ktoré poskytujú pomoc alebo poradenstvo pre ľudí s duševnými problémami. Toto riešenie je dostupnejšie, lacnejšie a pre niektorých možno aj prijateľnejšie ako prvý krok na ceste k terapii s ľudským odborníkom. Používatelia tejto služby oceňujú najmä bezpečnosť a diskrétnosť. Môžu hovoriť o svojich najosobnejších problémoch bez strachu z toho, že za ne budú odsúdení. Tieto nové benefity však so sebou samozrejme prinášajú aj množstvo výziev. Duševné zdravie bezpochyby predstavuje mimoriadne citlivú oblasť, v ktorej môže mať aj jedno zlé rozhodnutie fatálne následky.

Buďme však konkrétnejší. Nebezpečná môže byť napríklad predpojatosť, ktorú môže spôsobiť trénovanie AI modelu na nedostatočnom či chybnom súbore dát. Čo to môže znamenať v praxi? Chybnú alebo žiadnu diagnostiku pacientov, či nepresné odporúčania liečby. Taktiež sa môže stať, že systém odignoruje nejakú informáciu o stave z dôvodu, že na jej detekciu nebol naprogramovaný. Myslím si, že je jasné, že všetky tieto výzvy si budú vyžadovať ešte intenzívnejšiu spoluprácu medzi výskumníkmi z oblasti AI a zdravotníckymi expertami. A opäť sa dostávame k tomu, čo som už raz spomínal: AI v zdravotníctve rozhodne nie je zamýšľaná na samostatnú prácu s pacientmi či klientmi. Má pomáhať kvalifikovaným expertom pri ich rozhodovaní alebo v prípadoch, keď sa k nim pacient nevie dostať.

AI dnes je ako letectvo pred sto rokmi

Experti z MIT, ktorí sa zaoberali zvyšovaním bezpečnosti AI si uvedomili, že existuje segment, ktorým sa môžu inšpirovať. Možno sa budete čudovať, no je ním letectvo. Prečo? Bezpečnosť AI v zdravotníctve sa dnes výrazne podobá situácii, v akej bol letecký priemysel približne pred storočím. V tomto období zažíval zásadné inovácie a rýchly rozmach. Nové stroje však neboli najspoľahlivejšie a rôzne nehody (aj s tragickými následkami) boli bežné. Rok 1929 sa napríklad stal najhorším rokom z pohľadu smrteľných leteckých nehôd. V prepočte na dnešný počet letov by išlo o hrozivých cca 7 000 nehôd ročne! Čo sa teda dialo ďalej?

V roku 1926 bol americkým prezidentom prijatý takzvaný „Air Commerce Act“, prelomový zákon, ktorý reguloval leteckú dopravu. Vidíte tu aj vy paralelu s prvými pripravovanými reguláciami týkajúcimi sa AI? Tu sa však podobnosť medzi týmito dvoma segmentami nekončí.

Ku koncu 20. storočia sa v lietadlách výrazne rozmohla automatizácia, ktorá nahrádzala viaceré úkony dovtedy vykonávané pilotmi. Tí sa jej museli naučiť porozumieť. Dnes svoje schopnosti trénujú aj na rôznych trenažéroch a prechádzajú prísnym, niekoľkoročným výcvikom. Podobný prístup by bol ideálny aj v zdravotníctve. Zároveň by určite pomohla aj ďalšia vec, ktorú poznáme z letectva, a to nahlasovanie rôznych neúmyselných omylov alebo technických problémov, ktoré nastali pri lete. V súčasnosti sa ich mnohí pracovníci v zdravotníctve nahlásiť zdráhajú, keďže sa boja negatívnych dôsledkov. Často je to pochopiteľné. Pravdou totiž je, že dnes sa kladie dôraz skôr na potrestanie jednotlivcov a nie na to, aby sa takéto incidenty zaznamenávali, skúmali, systematicky zbierali a my sme sa im snažili v budúcnosti vyhnúť. Experti preto navrhujú vznik nového, nezávislého útvaru, ktorý by práve túto činnosť robil v súvislosti so zavádzaním AI do medicínskej praxe.

Usmerenenia už vydalo už aj WHO

Umelej inteligencii v zdravotníctve sa už venuje aj Svetová zdravotnícka organizácia (WHO), ktorá k nemu dokonca už v roku 2021 vydala usmernenie s názvom „Etika a riadenie AI v zdravotníctve“. V tomto roku vyšla aktualizácia tohto dokumentu, ktorá ho v niektorých oblastiach dopĺňa. A podľa mňa je to takto správne!

Jedným z hlavných bodov je pritom už spomínané zachovanie ľudskej kontroly nad systémami zdravotnej starostlivosti a lekárskymi rozhodnutiami. Pacienti by podľa WHO mali byť vždy oboznámení s tým, akú úlohu zohráva AI pri ich diagnostike či liečbe. Samozrejmosťou je absolútna dôvernosť údajov a povolenie na narábanie s nimi. WHO v dokumente zároveň zdôrazňuje, že by s AI mali zaobchádzať len vyškolení pracovníci. Inštitúcie by už dopredu mali mať zadefinované mechanizmy, ktoré sa spustia v prípade pochybenia. A teda by ešte pred začiatkom používania AI mali poznať odpovede na otázku: „Ako sa bude riešiť náprava a kto bude zodpovedný za pochybenie?“ Samotný dokument je pomerne komplikovaný a obsiahly, dáva nám však komplexnejší obraz o tom, kam sa môže regulácia tohto odvetvia uberať.

Budeme už aj my svedkami obrovského pokroku v praxi?

Sám som zvedavý! Keďže pracujem v startupe InoCloud, ktorý sa venuje práve AI, na vlastné oči vidím mimoriadne rýchlu transformáciu, ktorou prechádza v podstate dennodenne. A dnes sú inovácie rýchlejšie ako akákoľvek regulácia či nastavovanie pravidiel, čo sa musí pre udržateľnú budúcnosť tejto technológie jednoznačne zmeniť.

Veľmi ma preto teší, keď vidím, že si to začínajú uvedomovať aj relevantné strany. Mnohé z nich už pripravujú usmernenia, niektoré dokonca aj záväzné. Verím, že ešte naša generácia zažije rozmach AI v zdravotníctve, aký pred zhruba 100 rokmi zažilo letectvo. A pevne dúfam aj v to, že sa nám podarí napodobniť aj jeho príbeh s bezpečnosťou (ako iste viete, momentálne je jednou z najbezpečnejších foriem dopravy). Okrem regulácie bude určite potrebná aj maximálna transparentnosť práce s dátami a vytvorenie veľkej databázy, v ktorej sa budú zdieľať údaje, prípadne identifikované nedostatky z celého sveta. Verím, že sme na dobrej ceste!

Autor: Tomáš Meliško, CEO InoCloud

...

O autorovi

Napíšte komentár

Napíšte hľadané slovo / slová a stlačte ENTER