Algoritmy strojového učenia (MLA) analyzujú obrovské množstvo údajov rýchlosťou blesku. Súbory údajov, ktoré boli kedysi príliš veľké na to, aby ich človek správne vyhodnotil, sa teraz dajú využiť na lekárske rozhodnutia, ktoré zachránia život. Horúcou otázkou je, či by AI malo mať možnosť robiť tieto rozhodnutia. A ak áno, ako to ovplyvní lekárov, pacientov a súčasné právne a regulačné rámce?

Experti v laboratóriu zdravia pre etiku a politiku v Zurichu vo Švajčiarsku sú len jednou skupinou, ktorá začína upozorňovať na používanie AI. Nedávno publikovaná štúdia vyjadruje obavy, že pacientom by sa mohla odmietnuť životne dôležitá liečba z dôvodu zaujatosti v rámci MLA.

Jadro problému sa točí okolo toho, ako sa vyvíjajú MLA. V článku sa uvádza, že automatizované systémy boli vyškolené predovšetkým na základe údajov získaných od mužských belochov. Tento „nedostatok diverzity“ môže viesť k predsudkom, ktoré spôsobujú chyby. V dôsledku toho môžu marginalizované skupiny nakoniec trpieť vyššou mierou lekárskych zlyhaní.

Ďalším tlakovým bodom sú existujúce ľudské predpojatosti v rámci „neurálnych vstupov“ využívaných MLA. Tieto masívne súbory údajov vytvárajú potenciál pre umelú inteligenciu na napodobnenie alebo opätovné vyjadrenie existujúcich ľudských zaujatostí.

Medzi predsudky, ktoré by sa potenciálne mohli prenášať z človeka na AI, patria predsudky voči vysokému indexu telesnej hmotnosti (BMI), rasovým alebo etnickým skupinám a diskriminácii na základe pohlavia. Je to veľmi znepokojujúce, pretože vedci už naznačujú, že AI je schopná vyprodukovať život a rozhodnutia o smrti.


Vo Veľkej Británii vedci nedávno publikovali štúdiu, v ktorej AI správne predpovedala predčasnú úmrtnosť lepšie ako tradičné metódy. Vedci sa domnievajú, že by to mohlo umožniť algoritmom využívať „demografické, biometrické, klinické faktory a faktory životného štýlu“ na vyčlenenie pacientov, pre ktorých by bola výhoda skoršej intervencie. Akékoľvek zlyhanie určenia pacientov kvôli zdedeným predsudkom by však mohlo spôsobiť, že liečba nebude odobratá konkrétnym skupinám.

Ďalšia štúdia naznačuje, že AI môže úspešne identifikovať pacientov s rakovinou, u ktorých je vysoké riziko úmrtnosti na 30 dní alebo 150 dní. Podľa tohto výskumu by sa AI mohla použiť na označenie pacientov skôr, ako dostanú nákladnú chemoterapiu. Ide o to, že by bolo lepšie rozdeliť toto nákladné zaobchádzanie inde.

Výskum na globálnych trhoch, ktorý uskutočnil štúdiu o lekárskych robotoch, povedal spoločnosti ProPrivacy.com, že „správy naznačujú, že pacientom s rakovinou s ťažkým krvácaním bol odporučený liek, ktorý by mohol spôsobiť zhoršenie krvácania“.

Pri inej príležitosti algoritmus AI určený na predpovedanie, ktorí pacienti s pneumóniou môžu byť bezpečne prepustení - nesprávne rozhodol, že pacienti s anamnézou astmy majú nižšie riziko úmrtia. RGM nám povedal:

„Bolo to tak preto, že z údajov o školení to bolo, pretože pacienti s astmou zvyčajne chodili na JIS, dostávali agresívnejšiu starostlivosť, a preto s menšou pravdepodobnosťou zomreli. Algoritmus to nepochopil a použil pravidlo, že ak má niekto astmu, malo by sa s ním zaobchádzať ako s ambulantnou osobou. “

Shailin Thomas, výskumný pracovník na Harvardskej univerzite, poznamenáva, že „dokonca aj tie najlepšie algoritmy spôsobia potenciálne podstatné zníženie zodpovednosti v určitom percente času.“ Tento vlastný potenciál zodpovednosti vytvára záhadu, pretože je ťažké presne pochopiť, kto by mal byť držaný zodpovedá za to, čo je v konečnom dôsledku zaručené percento chýb.

Karl Foster, právny riaditeľ spoločnosti Blake Morgan, povedal spoločnosti ProPrivacy.com, že lekári budú zatiaľ zodpovední:

„Klinickí lekári sú v konečnom dôsledku zodpovední za svojich pacientov; je to prvoradý princíp lekárskeho povolania. Použitie AI pravdepodobne nezmení túto pozíciu, určite v krátkodobom horizonte. “

„Ak si predstavíme vyšetrovacie výsledky AI a zistíme, že konkrétny výsledok zvyšuje riziko vzniku špecifického zdravotného stavu u pacienta, v konečnom dôsledku - av súčasnosti - je na lekárovi, aby podrobnejšie preskúmal. Klinický lekár bude naďalej zodpovedný za interpretáciu údajov poskytnutých AI na základe iných klinických informácií a za rozhodnutie o najlepšom spôsobe liečby. “

Psychiater a vedec údajov Carlo Carandang sa naopak domnieva, že zodpovednosť by mohli niesť výrobcovia:

„Aplikácie AI sa budú považovať za zdravotnícke pomôcky, takže za výkon týchto klinických aplikácií AI budú zodpovedať spoločnosti, ktoré ich vyrábajú, a agentúra FDA a ďalšie regulačné agentúry, ktoré dohliadajú na takéto zdravotnícke pomôcky.“

Výskum na globálnych trhoch (RGM) povedal ProPrivacy.com, že hoci v súčasnosti sa zdá, že lekári zostávajú zodpovední „v prípade poškodenia spôsobeného nesprávnym obsahom namiesto nesprávneho použitia algoritmu alebo zariadenia, potom zodpovednosť musia niesť tí, ktorí navrhli a potom to zaistila kvalita. “RGM poznamenáva, že„ tento riadok nemusí byť tak ľahko definovateľný. “

Thomas je znepokojený tým, že zodpovedné podniky by mohli viesť k tomu, že prestanú produkovať algoritmy úplne. To by mohlo byť veľmi škodlivé pre lekársky priemysel, pretože AI už preukazuje svoj potenciál.

Napríklad v Číne vedci používali algoritmus na detekciu mozgových nádorov úspešnejšie ako najlepší lekári v krajine. Tieto objavy môžu zachrániť životy - ale iba vtedy, ak to môžu firmy, ktoré vyrábajú AI, robiť bez trvalého znepokojenia zo zodpovednosti.

Michael Carson, hlavný právnik spoločnosti Fletchers Solicitors, sa domnieva, že v súčasnosti je britská legislatíva spôsobilá zvládnuť vznik lekárskej AI. Carson povedal ProPrivacy.com, že:

„Mali by sme vidieť AI iba ako ďalší kus nemocničného vybavenia. Akékoľvek chyby alebo nesprávna diagnóza zo strany AI by sa mali posudzovať ako tvrdenie z lekárskej nedbanlivosti, pričom AI je iba nástroj používaný nemocnicou.

„Zákon je pravdepodobne dostatočne robustný na to, aby sa zaoberal problémami vyplývajúcimi z nesprávnych funkcií AI. V skutočnosti môže byť AI vnímaná ako ďalšia zmes zariadení a softvéru, ktorá už prevláda v rámci celej národnej zdravotníckej služby. “

RGM však poznamenáva, že súčasné právne predpisy nemusia dostatočne rozlišovať medzi „prípadmi, keď došlo k chybe v diagnostike nesprávneho fungovania technológie“, a prípadmi spôsobenými „použitím nepresných alebo nevhodných údajov“.

Na konci dňa môže AI konať iba na základe údajov, ktoré sú im dané. Ak sú tieto údaje nesprávne alebo neobjektívne, pred ich vložením - je ťažké pochopiť, ako môžu byť výrobcovia zavinení. Na druhej strane sa zdá ťažké obviňovať zdravotníckych pracovníkov za rozhodnutia, ktoré im boli vzaté z rúk.

Foster povedal spoločnosti ProPrivacy.com, že súčasné regulačné režimy v USA a Európe „v súčasnosti nepredpokladajú strojové učenie, kde sa softvér alebo súbory údajov majú vyvíjať.“ Výsledkom je, že otázky týkajúce sa zodpovednosti sa budú časom vyvíjať a regulátori budú potrebovať aby zostali flexibilné pri zmene.

Kto by mal byť zodpovedný za MLA, je zložitý problém a už existuje určitý nesúhlas. Zdá sa, že jedna vec je istá, vzhľadom na rýchlosť, s akou sa objavuje zdravotnícka umelá inteligencia, musia byť obozretní a musia rýchlo konať, aby zabezpečili pripravenosť na zvládnutie právnych predpisov. Keď sa objavia nové technológie, príliš často sa na trh objavia prielomy predčasne a zákonodarcovia sú nútení dohnať dohady..

Jedným z najväčších problémov s AI je to, že klinickí lekári nie vždy chápu, prečo MLA rozhodujú. Je to preto, že AI sa rozhoduje pomocou rozsiahlych súborov údajov, ktoré ľudia nemôžu spracovať. RGM vysvetľuje, že vďaka zlepšenej miere úspešnosti:

„Lekári sa môžu nazdávať, že nesprávne zdôvodňujú rozhodnutia AI kvôli dobre zdokumentovanému konceptu známemu ako skreslenie automatizácie. Ľudia tu môžu mať tendenciu dôverovať stroju viac, než si môžu dôverovať. “

Tento potenciál je mimoriadne znepokojivý, najmä ak odborníci varujú, že algoritmy môžu prísť vopred naprogramované s ľudskými predsudkami, ktoré môžu spôsobiť nesprávnu praktiku.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me