Алгоритмите за машинно обучение (MLA) анализират огромно количество данни при светкавична скорост. Наборите от данни, които някога са били твърде големи, за да могат хората да оценят правилно, сега могат да се използват за вземане на животоспасяващи медицински решения. Горещият въпрос е дали AI трябва да бъде позволено да прави тези решения. И, ако да, как се отразява на лекарите, пациентите и текущата правна и регулаторна рамка?


Експерти от лабораторията по здравна етика и политика в Цюрих, Швейцария, са само една група, която започва да вдига тревога за използването на AI. Наскоро публикуван документ изразява безпокойство, че пациентите могат да бъдат отказани от жизненоважно лечение поради пристрастия в рамките на МДА.

Същността на проблема се върти около начина на разработване на МДА. Документът предполага, че автоматизираните системи са обучавани предимно с помощта на данни, извлечени от кавказки пациенти от мъжки пол. Тази „липса на разнообразие“ може да доведе до предубеждения, които причиняват грешки. В резултат на това маргинализираните групи могат да страдат от по-висок процент на медицинска недостатъчност.

Друга точка на натиск се създава от съществуващи човешки пристрастия в рамките на „невронните входове“, експлоатирани от MLA. Тези масивни масиви от данни създават потенциал за ИИ да имитира или да изразява отново съществуващите човешки пристрастия.

Видовете предубеждения, които потенциално биха могли да преминат от хора към ИИ, включват предразсъдъци към висок индекс на телесна маса (ИТМ), расова или етническа група и дискриминация по пол. Това е силно смущаващо, защото изследователите вече предполагат, че ИИ е способен да създава живот и смъртни решения.

Във Великобритания изследователите наскоро публикуваха изследване, в което AI правилно прогнозираха преждевременната смъртност по-добре от традиционните методи. Изследователите смятат, че това може да позволи на алгоритмите да използват „демографски, биометрични, клинични фактори и фактори на живот“, за да отделят пациенти, които биха се възползвали от по-ранна интервенция. Въпреки това, всяко неуспех при определяне на пациентите поради наследствени пристрастия може да доведе до отказ на лечението от определени групи.

Друго проучване предполага, че AI може успешно да идентифицира пациенти с рак, които са изложени на висок риск от 30-дневна или 150-дневна смъртност. Според това изследване AI може да се използва за маркиране на пациентите, преди те да получат скъпа химиотерапия. Идеята е, че може би е по-добре да разпределите това скъпо лечение на друго място.

Изследване на Global Markets, което проведе проучване на медицински роботи, каза за ProPrivacy.com, че „докладите сочат, че на пациенти с рак с тежко кървене е препоръчано лекарство, което може да доведе до влошаване на кървенето“.

При друг повод алгоритъм на AI, предназначен да предвиди кои пациенти с пневмония могат да бъдат безопасно освободени - неправилно реших, че пациентите с анамнеза за астма имат по-малък риск да умрат. RGM ни каза:

„Това беше така, защото това беше вярно от данните за тренировките, тъй като пациентите с астма обикновено ходеха в инхалаторна терапия, получават по-агресивни грижи и затова е по-малко вероятно да умрат. Алгоритъмът не разбра това и използва правилото, че ако някой има астма, той трябва да се лекува като амбулатория. "

Шайлин Томас, научен сътрудник от Харвардския университет отбелязва, че „дори и най-добрите алгоритми пораждат потенциално значителна отговорност известен процент от времето.“ Този присъщ потенциал за отговорност създава загадка, защото е трудно да се разбере точно кой трябва да бъде държан отговорен за това, което в крайна сметка е гарантиран процент грешки.

Карл Фостър, юридически директор в Блейк Морган, каза за ProPrivacy.com, че за момента клиницистите ще носят отговорност:

„В крайна сметка клиницистите са отговорни за своите пациенти; това е преобладаващ принцип на медицинската професия. Използването на AI е малко вероятно да промени тази позиция, със сигурност в краткосрочен план “

„Ако си представим резултатите от изследване на AI и определяне, че определен резултат увеличава риска от развитие на специфично медицинско състояние при пациент, в крайна сметка - и в момента - клиничният лекар трябва да проучи допълнително. Клиницистът ще остане отговорен за интерпретирането на данните, предоставени от AI в светлината на друга клинична информация, и вземането на решение за най-доброто лечение. “

Психиатърът и ученът на данните Карло Каранданг, от друга страна, смята, че отговорността може да носи производителите:

„Приложенията на AI ще се третират като медицински изделия, така че изпълнението на такива клинични приложения на AI ще бъде отговорност на компаниите, които ги изграждат, и FDA и други регулаторни агенции, които контролират такива медицински изделия.“

Изследване на глобалните пазари (RGM) каза за ProPrivacy.com, че въпреки че понастоящем лекарите изглежда носят отговорност „в случай, че вредата е причинена от неправилно съдържание, а не от неправилна употреба на алгоритъм или устройство, то отговорността трябва да бъде на тези, които са проектирали и след това качеството го гарантира. “RGM отбелязва, че„ този ред може да не е толкова лесен за дефиниране. “

Томас е обезпокоен, че държането на фирми, които са отговорни, може да доведе до това, че те изцяло се отказват от създаването на алгоритмите. Това може да бъде изключително пагубно за медицинската индустрия, защото AI вече доказва своя потенциал.

Например в Китай, изследователите използваха алгоритъм за откриване на мозъчни тумори по-успешно от най-добрите лекари в страната. Тези видове пробиви могат да спасят живота, но само ако фирмите, които произвеждат AI, могат да го направят без постоянни опасения за отговорност.

Майкъл Карсън, старши юрист в Fletchers Solicitors, смята, че във Великобритания действащото законодателство е годно да се справи с появата на медицински интелект. Карсън каза на ProPrivacy.com, че:

„Трябва да гледаме на AI като само на друго парче болнично оборудване. Всички грешки или неправилни диагнози, направени от ИИ, трябва да се разглеждат като претенция за медицинска небрежност, като AI е само инструмент, използван от болницата.

„Законът вероятно е достатъчно здрав, за да се справи с проблеми, произтичащи от неизправности в ИИ. В действителност AI може да се разглежда като поредната комбинация от оборудване и софтуер, която вече е широко разпространена в Националната здравна служба. "

RGM обаче отбелязва, че настоящото законодателство може да не разграничава в достатъчна степен между „случаите, при които има грешка в диагностицирането на неизправност на дадена технология“ и случаите, причинени от „използването на неточни или неподходящи данни“.

В края на деня AI може да действа само по данните, които е дал. Ако тези данни са неправилни или предубедени, преди да бъдат въведени - трудно е да се разбере как производителите могат да бъдат виновни. От друга страна изглежда трудно да обвиняваме медицинските специалисти за решения, взети от тях.

Фостър каза за ProPrivacy.com, че настоящите регулаторни режими в САЩ и Европа „понастоящем не предвиждат машинно обучение, където софтуерът или наборите от данни са проектирани да се развиват.“ В резултат на това въпросите около отговорността вероятно ще се развият с течение на времето и регулаторите ще трябва да остане гъвкав за промяна.

Кой трябва да носи отговорност за МДП е сложен въпрос и вече има някои разногласия. Едно нещо изглежда сигурно, поради бързината, с която се появява медицинският ИИ, законодателите трябва да бъдат предпазливи и трябва да действат бързо, за да гарантират, че регулациите са готови да се справят. Твърде често, когато се появяват нови технологии, пробивът се удари преждевременно на пазара и законодателите са принудени да догонват.

Един от най-големите проблеми при AI е, че клиничните лекари не винаги разбират защо MLA вземат решения. Това е така, защото AI прави избор, използвайки масивни набори от данни, които хората не могат да обработват. RGM обяснява, че поради подобрената успеваемост:

„Лекарите могат да се окажат неправилно обосноваващи решения, взети от AI поради добре документирана концепция, известна като пристрастие към автоматизация. Тук хората могат да имат склонност да се доверяват на машина повече, отколкото могат да се доверят на себе си. "

Този потенциал е изключително загрижен, особено когато експертите предупреждават, че алгоритмите могат да бъдат предварително програмирани с човешки пристрастия, които могат да причинят злоупотреба.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me