Алгоритмы машинного обучения (MLA) анализируют огромные объемы данных с молниеносной скоростью. Наборы данных, которые когда-то были слишком велики для правильной оценки людьми, теперь могут использоваться для принятия жизненно важных медицинских решений. Актуальный вопрос заключается в том, следует ли разрешить ИИ делать такой выбор. И, если да, как это влияет на врачей, пациентов и действующую нормативно-правовую базу?

Эксперты из Лаборатории этики и политики здравоохранения в Цюрихе, Швейцария, - это всего лишь одна группа, которая начинает тревожиться по поводу использования ИИ. Недавно опубликованная статья выражает обеспокоенность тем, что пациентам может быть отказано в жизненно важных методах лечения из-за предвзятости в MLA.

Суть проблемы заключается в том, как разрабатываются ГНД. В документе предполагается, что автоматизированные системы были в основном обучены с использованием данных, полученных от пациентов мужского пола Кавказа. Это «отсутствие разнообразия» может привести к ошибкам, которые вызывают ошибки. В результате маргинальные группы могут в конечном итоге страдать от более высоких показателей неэффективности медицинского обслуживания..

Другая точка давления создается существующими уклонами человека от «нейронных входов», используемых MLA. Эти массивные наборы данных создают для ИИ возможность подражать или повторно выражать существующие предубеждения человека..

Типы предубеждений, которые могут потенциально передаваться от ИИ к человеку, включают предрассудки в отношении высокого индекса массы тела (ИМТ), расовых или этнических групп и дискриминации по признаку пола. Это вызывает серьезную обеспокоенность, поскольку исследователи уже предполагают, что ИИ способен создавать жизнь и смертельные решения.


В Великобритании исследователи недавно опубликовали исследование, в котором ИИ правильно предсказал преждевременную смертность лучше, чем традиционные методы. Исследователи полагают, что это может позволить алгоритмам использовать «демографические, биометрические, клинические факторы и факторы образа жизни» для выделения пациентов, которые выиграют от более раннего вмешательства. Однако любая неспособность точно определить пациентов из-за унаследованных предубеждений может привести к отказу в лечении от определенных групп.

Другое исследование предполагает, что ИИ может успешно идентифицировать больных раком, которые имеют высокий риск 30-дневной или 150-дневной смертности. Согласно этому исследованию, ИИ может использоваться для регистрации пациентов до того, как они получат дорогостоящую химиотерапию. Идея заключается в том, что может быть лучше выделить это дорогостоящее лечение в другом месте.

Исследование Global Markets, которое провело исследование медицинских роботов, сообщило ProPrivacy.com, что «в отчетах высказывается предположение, что больным раком с сильным кровотечением рекомендовано лекарство, которое может привести к ухудшению кровотечения».

В другом случае алгоритм искусственного интеллекта, разработанный для прогнозирования того, какие пациенты с пневмонией могут быть безопасно выписаны, ошибочно решил, что пациенты с астмой в анамнезе имели меньший риск смерти. RGM сказал нам:

«Это было потому, что это было верно по данным обучения, так как пациенты с астмой обычно обращались в ОИТ, получали более агрессивную помощь и, следовательно, с меньшей вероятностью умирали. Алгоритм не понимал этого и использовал правило, согласно которому, если кто-то страдает астмой, его следует лечить амбулаторно ».

Шайлин Томас, научный сотрудник Гарвардского университета, отмечает, что «даже самые лучшие алгоритмы в некоторых случаях приводят к потенциально существенной ответственности». Этот неотъемлемый потенциал ответственности создает загадку, поскольку трудно точно понять, кто именно должен быть задержан ответственность за то, что в конечном итоге гарантированный процент ошибок.

Карл Фостер, юридический директор Blake Morgan, сообщил ProPrivacy.com, что пока клиницисты будут нести ответственность:

«В конечном счете, клиницисты несут ответственность за своих пациентов; это главный принцип медицинской профессии. Использование ИИ вряд ли изменит эту позицию, безусловно, в краткосрочной перспективе »

«Если мы представим результаты анализа ИИ и определения того, что конкретный результат повышает риск развития конкретного заболевания у пациента, то в конечном итоге - и в настоящее время - это дальнейшее расследование для врача. Врач будет нести ответственность за интерпретацию данных, предоставленных AI в свете другой клинической информации, и за принятие решения о наилучшем лечении ».

Психиатр и специалист по данным Карло Каранданг, с другой стороны, считает, что ответственность может нести производитель:

«Приложения AI будут рассматриваться как медицинские устройства, поэтому за производительность таких клинических приложений AI будут отвечать компании, которые их создают, а также FDA и другие регулирующие органы, которые осуществляют надзор за такими медицинскими устройствами».

Исследование Global Markets (RGM) сообщило ProPrivacy.com, что, хотя в настоящее время врачи, похоже, продолжают нести ответственность «в случае причинения вреда неправильным содержимым, а не неправильным использованием алгоритма или устройства, ответственность должна лежать на тех, кто разработал и тогда качество гарантировало это ». RGM отмечает, что« эту линию не так просто определить ».

Томас обеспокоен тем, что привлечение фирм к ответственности может привести к тому, что они вообще перестанут выпускать алгоритмы. Это может быть крайне вредно для медицинской промышленности, потому что ИИ уже доказывает свой потенциал.

В Китае, например, исследователи использовали алгоритм для выявления опухолей головного мозга более успешно, чем лучшие врачи страны. Эти прорывы могут спасти жизни - но только если фирмы, которые производят ИИ, могут делать это без постоянных проблем ответственности.

Майкл Карсон, старший юрист Fletchers Solicitors, считает, что в Великобритании действующее законодательство подходит для борьбы с появлением медицинского ИИ. Карсон сказал ProPrivacy.com, что:

«Мы должны рассматривать ИИ как еще один элемент больничного оборудования. Любые ошибки или ошибочный диагноз, сделанные ИИ, должны рассматриваться как требование медицинской халатности, так как ИИ является лишь инструментом, используемым больницей..

«Закон, вероятно, уже достаточно силен для решения проблем, связанных с неисправностями ИИ. В действительности, ИИ можно рассматривать как еще одну смесь оборудования и программного обеспечения, которая уже широко распространена в Национальной службе здравоохранения ».

RGM, однако, отмечает, что действующее законодательство не может в достаточной степени провести различие между «случаями, когда имеется ошибка в диагностике неисправности технологии» и случаями, вызванными «использованием неточных или несоответствующих данных».

В конце дня ИИ может действовать только на основании данных, которые ему даны. Если эти данные неверны или предвзяты, прежде чем они будут введены - трудно понять, как производители могут быть виноваты. С другой стороны, кажется, трудно обвинять медицинских работников в решениях, взятых из их рук.

Фостер рассказал ProPrivacy.com, что действующие нормативные режимы в США и Европе «в настоящее время не предполагают машинного обучения, когда программное обеспечение или наборы данных предназначены для развития». В результате, вопросы, связанные с ответственностью, могут со временем эволюционировать, и регуляторам потребуется оставаться гибким, чтобы изменить.

Кто должен нести ответственность за ГНД, является сложным вопросом, и уже есть некоторые разногласия. Одна вещь кажется очевидной, из-за скорости, с которой медицинский ИИ появляется, законодатели должны быть осторожны и должны действовать быстро, чтобы гарантировать, что инструкции готовы справиться. Слишком часто, когда появляются новые технологии, прорывы преждевременно попадают на рынок, и законодатели вынуждены играть в догонялки.

Одна из самых больших проблем с ИИ заключается в том, что врачи не всегда понимают, почему ОМС принимают решения. Это потому, что ИИ делает выбор, используя массивные наборы данных, которые люди не могут обработать. RGM объясняет это улучшением показателей успеха:

«Врачи могут оказаться неправильно обосновывающими решения, принятые ИИ, из-за хорошо документированной концепции, известной как предвзятость автоматизации. Здесь люди могут иметь тенденцию доверять машине больше, чем они могут доверять себе ».

Этот потенциал чрезвычайно важен, особенно когда эксперты предупреждают, что алгоритмы могут быть предварительно запрограммированы с предубеждением человека, которое может привести к злоупотреблениям.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me