Algoritmi strojnega učenja (MLA) analizirajo ogromne količine podatkov s svetlobnimi hitrostmi. Nabori podatkov, ki so bili nekoč preveliki, da bi jih ljudje lahko pravilno ocenili, je zdaj mogoče uporabiti za sprejemanje življenjsko pomembnih medicinskih odločitev. Pereče vprašanje je, ali bi morali AI dovoliti te odločitve. In, če je odgovor pritrdilen, kako to vpliva na zdravnike, paciente in trenutni pravni in regulativni okvir?


Strokovnjaki laboratorija za zdravstveno etiko in politiko v švicarskem Zürichu so le ena skupina, ki začne sprožati zaskrbljenost nad uporabo AI. Nedavno objavljen članek izraža zaskrbljenost, da bi bolnikom lahko zavrnili vitalno zdravljenje zaradi pristranskosti znotraj MLA.

Bistvo težave se vrti v tem, kako se razvijajo MLA. V prispevku je razvidno, da so bili avtomatizirani sistemi v glavnem usposobljeni z uporabo podatkov, pridobljenih pri kavkaških bolnikih. To „pomanjkanje raznolikosti“ lahko privede do pristranskosti, ki povzročajo napake. Posledica tega je, da lahko marginalizirane skupine trpijo zaradi višjih stopenj zdravniške odpovedi.

Drug pritisk ustvarjajo obstoječe človeške pristranskosti znotraj "nevronskih vhodov", ki jih izkoriščajo MLA. Ti obsežni nabori podatkov ustvarjajo možnost AI, da posnema ali ponovno izrazi obstoječe človeške pristranosti.

Vrste pristranskosti, ki bi lahko prenesle ljudi na AI, vključujejo predsodke do visokega indeksa telesne mase (ITM), rasne ali etnične skupine in spolne diskriminacije. To je zelo moteče, saj raziskovalci že nakazujejo, da je AI sposoben za življenje in smrtne odločitve.

V Veliki Britaniji so pred kratkim raziskovalci objavili študijo, v kateri je AI pravilno napovedal prezgodnjo smrtnost bolje kot tradicionalne metode. Raziskovalci verjamejo, da bi to lahko algoritmom omogočilo uporabo „demografskih, biometričnih, kliničnih in življenjskih dejavnikov“, da bi izpostavili bolnike, ki bi jim koristili zgodnejši posegi. Vendar lahko vsaka neuspešna določitev pacientov zaradi podedovanih pristranskosti pri določenih skupinah prepreči zdravljenje.

Druga študija kaže, da lahko AI uspešno prepozna bolnike z rakom, pri katerih obstaja veliko tveganje za 30-dnevno ali 150-dnevno smrtnost. Glede na to raziskavo bi lahko AI uporabili za označevanje bolnikov, preden so prejeli drago kemoterapijo. Ideja je, da je morda bolje, da tako drago zdravljenje razporedimo drugam.

Raziskava Global Markets, ki je izvedla raziskavo na medicinskih robotih, je za ProPrivacy.com povedala, da "poročila kažejo, da je bolnikom z rakom s hudo krvavitvijo priporočeno zdravilo, ki bi lahko krvavitev poslabšalo."

Ob drugi priložnosti je algoritem AI zasnovan tako, da napove, katere bolnike s pljučnico je mogoče varno izpustiti - napačno sem sklenil, da imajo bolniki z astmo manjše tveganje za smrt. RGM nam je povedal:

"To je bilo zato, ker je bilo res, kar izhaja iz podatkov o usposabljanju, saj so bolniki z astmo običajno odhajali na oddelek zdravljenja, bili deležni bolj agresivne oskrbe in so zato manj verjetno umirali. Algoritem tega ni razumel in je uporabil pravilo, da če ima kdo astmo, ga mora obravnavati kot ambulantno. "

Shailin Thomas, znanstvena sodelavka z univerze Harvard, ugotavlja, da "tudi najboljši algoritmi povzročijo potencialno veliko odgovornost v določenem času." Ta lastna sposobnost odgovornosti ustvari uganko, saj je težko razumeti, kdo natančno naj se drži odgovoren za tisto, kar je na koncu zajamčen odstotek napak.

Karl Foster, pravni direktor Blakea Morgana, je za ProPrivacy.com dejal, da kliniki za zdaj ostajajo odgovorni:

"Na koncu so kliniki odgovorni za svoje paciente; je prevladujoče načelo medicinske stroke. Uporaba AI verjetno v kratkem času ne bo spremenila tega stališča. "

„Če si predstavljamo rezultate preizkusov AI in ugotovimo, da določen rezultat poveča tveganje za razvoj posebnega zdravstvenega stanja pri pacientu, je na koncu - in trenutno - klinik treba nadalje preiskati. Klinik bo še naprej odgovoren za razlago podatkov, ki jih je posredoval AI, glede na druge klinične podatke in sprejemanje odločitve o najboljšem zdravljenju. "

Psihiatr in podatkovist Carlo Carandang na drugi strani meni, da bi odgovornost lahko nastala pri proizvajalcih:

"Aplikacije AI bodo obravnavane kot medicinski pripomočki, zato bodo za izvajanje takšnih kliničnih aplikacij AI odgovorna podjetja, ki jih gradijo, in FDA ter druge regulativne agencije, ki nadzirajo take medicinske pripomočke."

Raziskave globalnih trgov (RGM) so za ProPrivacy.com povedale, da čeprav klinični zdravniki trenutno odgovarjajo, "če škodo povzroči napačna vsebina in ne nepravilna uporaba algoritma ali naprave, mora odgovornost nositi tista, ki je zasnovala in potem je to zagotovila kakovost. "RGM ugotavlja, da" te vrstice morda ni tako enostavno določiti. "

Thomas je zaskrbljen, ker bi lahko odgovorna podjetja privedla do tega, da bodo popolnoma opustili izdelavo algoritmov. To bi lahko bilo zelo škodljivo za medicinsko industrijo, saj AI že dokazuje svoj potencial.

Na primer na Kitajskem so raziskovalci uporabili algoritem za odkrivanje možganskih tumorjev bolj uspešno kot najboljši zdravniki v državi. Te vrste prebojev lahko rešijo življenje - vendar le, če podjetja, ki proizvajajo AI, to lahko storijo brez stalnih pomislekov o odgovornosti.

Michael Carson, starejši odvetnik pri podjetju Fletchers Solicitors, meni, da je v Veliki Britaniji trenutna zakonodaja primerna za obravnavo nastanka medicinske AI. Carson je za ProPrivacy.com povedal, da:

"Na AI bi morali gledati kot na samo še en del bolniške opreme. Vse napake ali napačne diagnoze, ki jih je opravil AI, je treba obravnavati kot trditev o zdravstveni malomarnosti, pri čemer je AI zgolj orodje, ki ga uporablja bolnišnica.

„Zakon je verjetno dovolj močan, da že rešuje vprašanja, ki izhajajo iz napak v AI. V resnici je AI mogoče razumeti kot le še eno kombinacijo opreme in programske opreme, ki je že razširjena v celotni Nacionalni zdravstveni službi. "

RGM pa ugotavlja, da trenutna zakonodaja morda ne razlikuje dovolj med "primeri napake pri diagnozi napake v tehnologiji" in primeri, ki so posledica "uporabe netočnih ali neprimernih podatkov".

Na koncu dneva lahko AI deluje samo na podatke, ki jih je dal. Če so ti podatki napačni ali pristranski, preden so vneseni - je težko razumeti, kako so lahko krivci proizvajalcev. Po drugi strani se zdi težko kriviti medicinske strokovnjake za odločitve, sprejete iz njihovih rok.

Foster je za ProPrivacy.com povedal, da trenutni regulativni režimi v ZDA in Evropi "trenutno ne predvidevajo strojnega učenja, kjer se programska oprema ali nabori podatkov oblikujejo za razvoj." Zaradi tega se bodo vprašanja v zvezi s odgovornostjo verjetno razvila sčasoma in bodo morali regulatorji. ostati prilagodljiv za spremembe.

Kdo bi moral biti odgovoren za MLA, je zapleteno vprašanje in že obstaja nekaj nesoglasij. Nekatere stvari se zdijo zanesljive, saj morajo biti zakonodajalci previdni, saj hitrost nastajanja medicinskih AI mora biti previdna in hitro ukrepati, da se zagotovi, da so predpisi pripravljeni za obvladovanje. Prepogosto, ko se pojavijo nove tehnologije, prebojni trki predčasno pridejo na trg, zakonodajalci pa so prisiljeni, da nadomeščajo.

Ena največjih težav z AI je, da kliniki ne razumejo vedno, zakaj MLA sprejemajo odločitve. To je zato, ker se AI odloča z uporabo množičnih naborov podatkov, ki jih ljudje ne morejo obdelati. RGM pojasnjuje, da zaradi izboljšanih stopenj uspešnosti:

"Zdravniki se lahko zdijo napačno utemeljeni pri odločitvah AI zaradi dobro dokumentiranega koncepta, znanega kot avtomatizacija. Tu imajo ljudje težnjo, da stroju zaupajo več, kot bi lahko zaupali sebi. "

Ta potencial je zelo zaskrbljujoč, zlasti kadar strokovnjaki opozarjajo, da so algoritmi morda vnaprej programirani s človeškimi pristransi, ki lahko povzročijo napačne prakse.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me