Mašinų mokymosi algoritmai (MLA) analizuoja didžiulį duomenų kiekį žaibo greičiu. Duomenų rinkiniai, kurie kadaise buvo per dideli, kad žmonės galėtų juos tinkamai įvertinti, dabar gali būti naudojami priimant medicininius sprendimus dėl gyvybės gelbėjimo. Kyla klausimas, ar AI turėtų būti leista priimti tuos sprendimus. Jei taip, kaip tai veikia gydytojus, pacientus ir dabartinę teisinę bei norminę bazę??


Sveikatos etikos ir politikos laboratorijos, esančios Ciuriche, Šveicarijoje, ekspertai yra tik viena grupė, kuri pradeda kelti nerimą dėl AI naudojimo. Neseniai paskelbtame dokumente išreiškiamas susirūpinimas, kad pacientams gali būti neleidžiamas gyvybiškai svarbus gydymas dėl šališkumo MLA.

Problemos esmė yra susijusi su tuo, kaip kuriamos savitarpio teisinės pagalbos priemonės. Straipsnyje teigiama, kad automatizuotos sistemos pirmiausia buvo mokomos naudojant duomenis, surinktus iš pacientų iš Kaukazo. Šis „įvairovės trūkumas“ gali sukelti šališkumo, sukeliančio klaidas. Dėl to atstumtos grupės gali patirti didesnį medicininės nesėkmės procentą.

Kitas spaudimo taškas sukuriamas dėl esamų žmogaus paklaidų per „neuroninius įvadus“, kuriuos naudoja MLA. Šie masyvūs duomenų rinkiniai sukuria galimybę AI imituoti ar pakartotinai išreikšti esamą žmogaus paklaidą.

Tarp šališkumų, galinčių perduoti žmonėms nuo AI, priskiriamos išankstinės nuostatos, susijusios su aukštu kūno masės indeksu (KMI), rasinėmis ar etninėmis grupėmis ir lyčių diskriminacija. Tai labai nerimą keliantys dalykai, nes tyrėjai jau siūlo, kad AI gali gyventi ir mirties sprendimai.

JK tyrėjai neseniai paskelbė tyrimą, kuriame AI teisingai numatė priešlaikinį mirtingumą geriau nei tradiciniai metodai. Tyrėjai mano, kad tai galėtų leisti algoritmams naudoti „demografinius, biometrinius, klinikinius ir gyvenimo būdo veiksnius“, kad būtų galima išskirti pacientus, kuriems būtų naudinga ankstesnė intervencija. Tačiau nepavykus tiksliai nustatyti pacientų dėl paveldimo šališkumo, gydymas gali būti nutrauktas iš tam tikrų grupių.

Kitas tyrimas rodo, kad PG gali sėkmingai nustatyti vėžiu sergančius pacientus, kuriems gresia didelis 30 ar 150 dienų mirštamumas. Remiantis tuo tyrimu, PG gali būti naudojama žymint pacientus prieš jiems skiriant brangią chemoterapiją. Idėja buvo ta, kad gali būti geriau paskirstyti tą brangų gydymą kitur.

„Global Markets“ tyrimai, atlikę medicininių robotų tyrimą, „ProPrivacy.com“ sakė, kad „pranešimai rodo, kad vėžiu sergantiems pacientams, kuriems yra sunkus kraujavimas, buvo rekomenduotas vaistas, galintis pabloginti kraujavimą“.

Kita proga, AI algoritmas, skirtas numatyti, kuriuos pacientus, sergančius plaučių uždegimu, būtų galima saugiai išpilti, - neteisingai nusprendė, kad pacientams, sergantiems astma, mažesnė rizika mirti. RGM mums pasakė:

„Taip buvo todėl, kad iš treniruočių duomenų buvo tiesa, nes astma sergantys pacientai dažniausiai eidavo į ICU, gaudavo agresyvesnę priežiūrą ir todėl mažiau mirdavo. Algoritmas to nesuprato ir pasinaudojo taisykle, kad jei kas nors serga astma, jis turi būti traktuojamas kaip ambulatorinis “.

Harilno universiteto mokslinis bendradarbis Shailinas Thomas pažymi, kad „net ir geriausi algoritmai sukels potencialiai didelę atsakomybę tam tikra laiko dalimi.“ Šis neatsiejamas atsakomybės potencialas sukuria galvosūkį, nes sunku tiksliai suprasti, kas turėtų būti laikomas. atskaitingas už tai, kas yra garantuotas klaidų procentas.

Karlas Fosteris, „Blake Morgan“ teisinis direktorius, ProPrivacy.com sakė, kad kol kas gydytojai liks atsakingi:

„Galiausiai gydytojai yra atsakingi už savo pacientus; tai yra svarbiausias medicinos profesijos principas. AI naudojimas greičiausiai nepakeis šios pozicijos, žinoma, per trumpą laiką “

„Jei įsivaizduojame AI apklausos tyrimų rezultatus ir nustatome, kad tam tikras rezultatas padidina riziką susirgti specifine paciento sveikatos būkle, galų gale - ir šiuo metu - klinikos gydytojas turi ištirti toliau. Gydytojas ir toliau bus atsakingas už AI pateiktų duomenų aiškinimą atsižvelgiant į kitą klinikinę informaciją ir sprendimo dėl geriausio gydymo priėmimą. “

Kita vertus, psichiatras ir duomenų mokslininkas Carlo Carandang mano, kad atsakomybė gali tekti gamintojams:

„PG programos bus traktuojamos kaip medicinos prietaisai, todėl už tokių klinikinių PG programų vykdymą bus atsakingos jas kuriančios įmonės ir FDA ir kitos reguliavimo agentūros, prižiūrinčios tokius medicinos prietaisus“.

„Global Markets“ (RGM) tyrimai sakė „ProPrivacy.com“, kad nors šiuo metu klinikų gydytojai atrodo atsakingi „tuo atveju, jei žalą padaro neteisingas turinys, o ne netinkamas algoritmo ar įrenginio naudojimas, tada atskaitomybė turi tekti tiems, kurie suprojektavo ir tada kokybę užtikrino. “RGM pažymi, kad„ šią liniją gali būti ne taip lengva apibrėžti “.

Tomas yra susirūpinęs, kad kontroliuojančios firmos gali priversti jas mesti gaminti visus algoritmus. Tai gali labai pakenkti medicinos pramonei, nes AI jau įrodo savo galimybes.

Pavyzdžiui, Kinijoje tyrėjai naudojo algoritmą, kad smegenų auglius galėtų nustatyti geriau nei geriausi šalies gydytojai. Tokie lūžio būdai gali išgelbėti gyvybes, tačiau tik tuo atveju, jei AI gaminančios įmonės gali tai padaryti nekeldamos nuolatinės atsakomybės rūpesčių..

Michaelas Karsonas, „Fletchers Solicitor“ vyresnysis teisininkas, mano, kad JK dabartiniai įstatymai yra tinkami spręsti medicinos AI atsiradimo problemą. Carsonas sakė ProPrivacy.com, kad:

„Į AI turėtume žiūrėti kaip į dar vieną ligoninės įrangos elementą. Visos AI padarytos klaidos ar neteisinga diagnozė turėtų būti nagrinėjama kaip medicininio aplaidumo ieškinys, o AI yra tik priemonė, naudojama ligoninėje..

„Įstatymas greičiausiai yra pakankamai tvirtas, kad būtų galima išspręsti problemas, kylančias dėl AI nesklandumų. Iš tikrųjų PG gali būti vertinamas kaip tik dar vienas įrangos ir programinės įrangos mišinys, kuris jau vyrauja visoje Nacionalinėje sveikatos tarnyboje. “

Tačiau RGM pažymi, kad galiojantys įstatymai gali nepakankamai atskirti „atvejus, kai diagnozuojama klaida diagnozuojant technologijos sutrikimus“, ir atvejus, susijusius su „netikslių ar netinkamų duomenų naudojimu“.

Dienos pabaigoje AI gali veikti tik pagal duotus duomenis. Jei šie duomenys yra neteisingi ar šališki, prieš juos įvedant, sunku suprasti, kaip gamintojai gali būti kalti. Kita vertus, atrodo sunku kaltinti medikus už sprendimus, priimtus iš jų rankų.

„Foster“ sakė ProPrivacy.com, kad dabartiniai JAV ir Europos reguliavimo režimai „šiuo metu nenumato mašininio mokymosi ten, kur programinė įranga ar duomenų rinkiniai yra sukurti“. Dėl to tikėtina, kad bėgant laikui kyla klausimų, susijusių su atsakomybe, ir reikės reguliuotojų. išlikti lanksti pokyčiams.

Kas turėtų būti atsakingas už MLA, yra sudėtingas klausimas, ir tam tikrų nesutarimų jau yra. Atrodo, kad vienas dalykas yra tikras, nes dėl greitos medicinos AI atsiradimo įstatymų leidėjai turi būti atsargūs ir privalo veikti greitai, kad užtikrintų, jog reglamentai yra pasirengę susitvarkyti. Pernelyg dažnai, atsiradus naujoms technologijoms, perversmai per anksti pasiekia rinkos dalyvius, o įstatymų leidėjai yra priversti imtis priemonių pasivyti.

Viena didžiausių AI problemų yra ta, kad gydytojai ne visada supranta, kodėl MLA priima sprendimus. Taip yra todėl, kad AI pasirenka naudodamas didžiulius duomenų rinkinius, kurių žmonės negali apdoroti. RGM paaiškina, kad dėl pagerėjusių sėkmės procentų:

„Dėl gerai dokumentuotos koncepcijos, vadinamos automatikos šališkumu, gydytojai gali neteisingai pagrįsti AI sprendimus. Čia žmonės gali labiau pasitikėti mašina, nei galėtų pasitikėti savimi. “

Šis potencialas yra labai susirūpinęs, ypač kai ekspertai įspėja, kad algoritmai gali būti iš anksto užprogramuoti atsižvelgiant į žmogaus paklaidas, kurios gali sukelti netinkamą praktiką.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me