Алгоритми машинског учења (МЛА) анализирају огромне количине података брзином муње. Скуп података који су некада били превелики да би их људи правилно проценили, сада се може искористити за доношење животних медицинских одлука. Актуално је питање треба ли АИ дозволити да се одлучи. И, ако да, како то утиче на лекаре, пацијенте и тренутни правни и регулаторни оквир?


Стручњаци из Лабораторија за здравствену етику и политику у Цириху у Швајцарској само су једна група која почиње да подиже аларм због употребе АИ. Недавно објављени рад изражава забринутост због тога што пацијентима може бити ускраћено витално лечење због пристраности унутар МЛА-а.

Суштина проблема се врти око развоја МЛА-ова. У раду се сугерира да су аутоматизовани системи превасходно обучени користећи податке добијене од мушких кавкаских пацијената. Овај „недостатак разноликости“ може довести до пристраности које узрокују грешке. Као резултат тога, маргинализоване групе могу завршити са вишом стопом неуспеха у медицини.

Још једну тачку притиска стварају постојеће људске пристраности унутар „неуронских улаза“ који користе МЛА. Ти огромни скупови података стварају потенцијал АИ да опонаша или поново изражава постојеће људске пристраности.

Врсте пристраности које би могле потенцијално прећи од људи на АИ укључују предрасуде према високом индексу телесне масе (БМИ), расној или етничкој групи и родној дискриминацији. То је веома узнемирујуће, јер истраживачи већ сугеришу да је АИ способан да створи живот и одлуке о смрти.

У Великој Британији, истраживачи су недавно објавили студију у којој је АИ тачно предвидио прерану смртност бољу од традиционалних метода. Истраживачи верују да би ово могло омогућити алгоритамима да користе „демографске, биометријске, клиничке и животне факторе“ да би издвојили пацијенте који би имали користи од раније интервенције. Међутим, сваки неуспех да се пацијенти прецизно утврде због наследних пристрасности може изазвати одузимање лечења од одређених група.

Друга студија указује да АИ може успешно идентификовати пацијенте оболеле од рака који су под високим ризиком од 30-дневног или 150-дневног смртности. Према том истраживању, АИ се може користити за означавање пацијената пре него што им се скупе хемотерапије. Идеја је да је можда боље распоредити то скупо лечење на друго место.

Истраживање о глобалним тржиштима, које је спровело студију о медицинским роботима, каже за ПроПриваци.цом да „извештаји указују да је пацијентима оболелим од рака с јаким крварењима препоручен лек који може довести до погоршања крварења“.

Другом приликом, алгоритам АИ дизајниран тако да предвиди које пацијенте са упалом плућа може сигурно да се отпусти - погрешно је одлучено да пацијенти који имају историју астме имају мањи ризик од умирања. РГМ нам је рекао:

„То је било зато што је то тачно из података о тренингу, јер су пацијенти са астмом обично одлазили на одељење интензивне неге, били су агресивнији неговани и мање је вероватно да ће умрети. Алгоритам није разумео ово и користио је правило да ако неко има астму, треба га лечити амбулантно. "

Схаилин Тхомас, научни сарадник са Универзитета Харвард, напомиње да „чак и најбољи алгоритми могу довести до потенцијалне суштинске одговорности у неком проценту времена.“ Овај инхерентни потенцијал одговорности ствара загонетку, јер је тешко схватити ко се тачно треба држати одговоран за оно што је на крају загарантовани проценат грешака.

Карл Фостер, правни директор Блаке Морган-а, рекао је за ПроПриваци.цом да ће, за сада, клиничари остати одговорни:

„На крају, клиничари су одговорни за своје пацијенте; то је најважнији принцип медицинске професије. Употреба АИ вероватно неће променити то стајалиште, свакако у кратком року “

„Ако замислимо испитивање АИ испитивања и утврдимо да одређени резултат повећава ризик од развоја одређеног здравственог стања код пацијента, на крају - и тренутно - клиничар ће даље истражити. Клиничар ће остати одговоран за тумачење података које пружа АИ у светлу других клиничких информација и доношење одлуке о најбољем лечењу. "

Психијатар и научник Царло Царанданг, с друге стране, сматра да би одговорност могла бити на произвођачима:

"АИ апликације ће се третирати као медицински уређаји, тако да ће за извршавање таквих клиничких АИ апликација бити одговорне компаније које их граде, и ФДА и друге регулаторне агенције које надгледају такве медицинске уређаје."

Истраживање о глобалним тржиштима (РГМ) каже за ПроПриваци.цом да иако изгледа да клиничари тренутно сносе одговорност „у случају да штета настане због погрешног садржаја, а не неправилне употребе алгоритма или уређаја, онда одговорност мора бити на онима који су дизајнирали и онда је то обезбедило квалитет. "РГМ примећује да" ову линију можда није тако лако дефинисати. "

Тхомас је забринут што би одузимање одговорних фирми могло довести до тога да они потпуно одустану од израде алгоритама. То би могло бити изузетно штетно за медицинску индустрију, јер АИ већ доказује свој потенцијал.

На пример, у Кини, истраживачи су користили алгоритам за откривање тумора мозга успешније од најбољих лекара у земљи. Овакве врсте пробоја могу спасити животе - али само ако компаније које производе АИ то могу учинити без сталних брига о одговорности.

Мицхаел Царсон, виши адвокат компаније Флетцхерс Солициторс, верује да је у Великој Британији тренутно законодавство погодно за обраду појаве медицинских афеката. Царсон је за ПроПриваци.цом рекао да:

„Требало би да посматрамо АИ само још један део болничке опреме. Било какве грешке или погрешне дијагнозе које је АИ направио треба третирати као тврдњу о медицинској непажњи, при чему је АИ само средство које болница користи.

„Закон је вероватно довољно робустан да се већ може носити са проблемима који проистичу из АИ неисправности. У стварности, АИ се може посматрати као само још један спој опреме и софтвера, који је већ распрострањен у целој Националној здравственој служби. "

РГМ, међутим, примећује да тренутно законодавство не може довољно разликовати између „случајева где постоји грешка у дијагнози неисправности технологије“ и случајева проузрокованих „употребом нетачних или неприкладних података“.

На крају дана, АИ може да делује само према подацима који су му дати. Ако су ти подаци нетачни или пристрасни, пре уношења - тешко је разумети како произвођачи могу бити криви. С друге стране, чини се да је тешко кривити медицинске стручњаке за одлуке донесене из њихове руке.

Фостер је за ПроПриваци.цом рекао да тренутни регулаторни режими у САД-у и Европи „тренутно не предвиђају машинско учење тамо где су софтвер или скупови података дизајнирани да еволуирају.“ Као резултат тога, питања око одговорности вероватно ће се временом развијати и требати регулаторима. остати флексибилан за промјене.

Ко треба да буде одговоран за МЛА-е је сложено питање и већ постоје одређена неслагања. Једна ствар се чини сигурном, због брзине којом се појављује медицински АИ законодавци морају бити опрезни и морају брзо поступати како би осигурали да су прописи спремни да се носе. Пречесто, када се појаве нове технологије, напредак се прерано удари на тржиште и законодавци су приморани да надгледају.

Један од највећих проблема са АИ је тај што клиничари не разумеју увек зашто МЛА доносе одлуке. То је зато што АИ доноси одлуке користећи масовне скупове података које људи не могу да обраде. РГМ објашњава да због побољшаних стопа успеха:

„Лекари могу погрешно оправдати одлуке донете од стране АИ због добро документованог концепта познатог као пристрасност аутоматизацији. Овде људи могу имати склоност да верују машини више него што могу да верују себи. "

Овај потенцијал је изузетно забрињавајући, посебно када стручњаци упозоравају да алгоритми могу бити унапред програмирани с људским пристраностима које могу изазвати неисправност.

Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me