MLA (Machine Learning Algorithms)는 매우 빠른 속도로 방대한 양의 데이터를 분석합니다. 인간이 올바르게 평가하기에 너무 큰 데이터 세트는 이제 생명을 구하는 의료 결정을 내릴 수 있습니다. 문제는 AI가 그러한 선택을 할 수 있어야하는지 여부입니다. 그렇다면, 의사, 환자 및 현재의 법률 및 규제 프레임 워크에 어떤 영향을 미칩니 까??


스위스 취리히에있는 Health Ethics and Policy Lab의 전문가들은 AI 사용에 대한 경고를 제기하기 시작한 그룹 중 하나 일뿐입니다. 최근에 발표 된 논문은 MLA 내 편향으로 인해 환자가 중요한 치료를 거부 할 수 있다는 우려를 표명합니다.

이 문제의 핵심은 MLA 개발 방법에 관한 것입니다. 이 논문은 자동화 된 시스템이 주로 백인 남성 환자로부터 채굴 된 데이터를 사용하여 훈련되었다고 제안합니다. 이 "다양성 부족"으로 인해 오류가 발생하는 바이어스가 발생할 수 있습니다. 결과적으로, 소외된 그룹은 더 높은 의료 실패율로 고통받을 수 있습니다.

다른 압력 포인트는 MLA에 의해 이용 된 "신경 입력"내에 존재하는 인간 편견에 의해 생성됩니다. 이러한 대규모 데이터 세트는 AI가 기존의 인간 편견을 모방하거나 다시 표현할 수있는 잠재력을 만듭니다.

인간에서 AI로 전이 될 수있는 편견에는 신체 질량 지수 (BMI), 인종 또는 민족 집단, 성별 차별에 대한 편견이 포함됩니다. 연구자들은 AI가 생명을 얻을 수 있다고 이미 제안하고 있기 때문에 매우 혼란 스럽습니다. 사망 결정.

영국에서 연구원들은 최근 AI가 전통적인 방법보다 조기 사망률을 정확하게 예측 한 연구를 발표했습니다. 연구원들은 이것이 알고리즘이“인구 통계 학적, 생체 학적, 임상 적, 생활 양식 요소”를 이용하여 조기 개입의 혜택을받는 환자를 골라 낼 수있게 할 수 있다고 생각합니다. 그러나 유전 된 편견으로 인해 환자를 정확히 찾아 내지 못하면 특정 그룹의 치료가 보류 될 수 있습니다..

또 다른 연구는 AI가 30 일 또는 150 일 사망률이 높은 암 환자를 성공적으로 식별 할 수 있다고 제안합니다. 이 연구에 따르면 AI는 고가의 화학 요법을 받기 전에 환자를 신고하는 데 사용될 수 있습니다. 고가의 치료를 다른 곳에 할당하는 것이 더 나을 수 있다는 아이디어.

의료 로봇에 대한 연구를 수행 한 글로벌 마켓에 관한 연구에 따르면 ProPrivacy.com은“출혈이 심한 암 환자는 출혈을 악화시킬 수있는 약물을 권장하고 있다고보고했다.

다른 경우에는 폐렴 환자를 안전하게 퇴원시킬 수있는 인공 지능 알고리즘이 천식 병력이있는 환자가 사망 위험이 낮다고 잘못 판단했습니다. RGM은 다음과 같이 말했습니다.

“천식 환자는 일반적으로 중환자 실에 가서 더 적극적인 치료를 받고 죽을 가능성이 적기 때문에 훈련 데이터에서 사실이기 때문입니다. 이 알고리즘은 이것을 이해하지 못했으며 누군가 천식이있는 경우 외래 환자로 취급해야한다는 규칙을 사용했습니다.”

하버드 대학교 (Harvard University)의 연구원 인 Shailin Thomas는“최고의 알고리즘조차도 상당한 시간 동안 상당한 책임을지게 될 것”이라고 지적했다. 궁극적으로 보장 된 실수의 비율에 대한 책임.

Blake Morgan의 법무 이사 인 Karl Foster는 ProPrivacy.com에 당분간 임상의가 다음과 같이 책임을 질 것이라고 말했습니다.

“궁극적으로 임상의는 환자에게 책임이 있습니다. 그것은 의료 직업의 우선 원칙입니다. 인공 지능을 사용해도 단기적으로는 그 위치가 바뀌지 않을 것입니다.”

AI가 테스트 결과를 조사하고 특정 결과가 환자의 특정 의학적 상태를 개발할 위험을 증가 시킨다는 결론을 내린다면, 궁극적으로 현재 임상의는 임상의가 더 조사해야 할 것입니다. 임상의는 다른 임상 정보에 비추어 AI가 제공 한 데이터를 해석하고 최상의 치료에 대한 결정을 내릴 책임이 있습니다.”

반면에 정신과 의사 및 데이터 과학자 인 Carlo Carandang은 책임이 제조업체에있을 수 있다고 생각합니다.

"AI 앱은 의료 기기로 취급되므로 임상 AI 앱의 성능은 해당 기기를 구축하는 회사와 그러한 의료 기기를 감독하는 FDA 및 기타 규제 기관의 책임이 될 것입니다."

글로벌 시장에 대한 연구 (RGM)에 따르면 ProPrivacy.com은 현재 임상의가“알고리즘이나 장치를 부적절하게 사용하지 않고 부정확 한 콘텐츠로 인해 피해를 입었을 경우 책임을 유지하는 것처럼 보이지만 책임은 설계 및 RGM은“이 라인은 정의하기 쉽지 않을 수 있습니다.”라고 말합니다.

토마스는 기업을 책임있게 지킴으로써 알고리즘 생산을 완전히 중단 할 수 있다고 우려했다. AI가 이미 잠재력을 입증하고 있기 때문에 이것은 의료 산업에 매우 해로울 수 있습니다..

예를 들어, 중국의 연구자들은 알고리즘을 사용하여 미국 최고의 의사보다 뇌종양을 더 성공적으로 탐지했습니다. 이러한 종류의 혁신은 생명을 구할 수 있지만 AI를 생산하는 회사가 지속적인 책임 문제없이 그렇게 할 수있는 경우에만 가능합니다.

Fletchers Solicitors의 선임 변호사 인 Michael Carson은 영국에서 현재의 법률이 의료 AI의 출현을 다루기에 적합하다고 생각합니다. 카슨은 ProPrivacy.com에 다음과 같이 말했습니다.

“AI는 또 다른 병원 장비로 간주해야합니다. AI가 내린 모든 오류 또는 오진은 의학적 과실 주장으로 다루어 져야하며 AI는 단지 병원에서 사용하는 도구 일뿐입니다..

“법률은 AI 오작동으로 인한 문제를 처리 할만큼 충분히 강력 할 것입니다. 실제로 AI는 이미 국가 보건 서비스에서 널리 사용되는 장비와 소프트웨어의 또 다른 혼합으로 볼 수 있습니다.”

그러나 RGM은 현행법이“기술의 진단 오작동에 오류가있는 경우”와“부정확하지 않거나 부적절한 데이터의 사용”으로 인한 경우를 충분히 구별하지 못할 수 있다고 지적합니다.

하루가 끝나면 AI는 주어진 데이터에 대해서만 행동 할 수 있습니다. 입력하기 전에 해당 데이터가 부정확하거나 바이어스 된 경우 제조업체의 결함에 대해 이해하기 어렵습니다. 반면에, 의료 전문가가 손에서 내린 결정에 대해 비난하기 어려운 것 같습니다.

포스터는 ProPrivacy.com에 미국과 유럽의 현재 규제 체제가“현재 소프트웨어 나 데이터 세트가 진화하도록 설계된 머신 러닝을 기대하지는 않는다”고 말했다. 결과적으로, 책임에 관한 질문은 시간이 지남에 따라 진화 할 가능성이 있으며 규제 기관은 필요할 것이다. 변화에 유연하게.

MLA에 대한 책임이있는 사람은 복잡한 문제이며 이미 의견이 맞지 않습니다. 의료 인공 지능이 부상하고있는 입법자들의 속도로 인해 한 가지 확실한 점은주의가 필요하며 규정에 대처하기 위해 신속하게 조치를 취해야합니다. 종종 새로운 기술이 등장 할 때 돌파구가 조기에 시장에 출시되고 입법자들이 따라 잡아야합니다..

AI의 가장 큰 문제 중 하나는 임상의가 MLA가 의사 결정을 내리는 이유를 항상 이해하지 못한다는 것입니다. AI는 인간이 처리 할 수없는 방대한 데이터 세트를 사용하여 선택하기 때문입니다. RGM은 성공률 향상으로 인해 다음과 같이 설명합니다.

“의사들은 자동화 편향이라고 알려진 잘 문서화 된 개념으로 인해 AI가 내린 결정을 잘못 정당화 할 수 있습니다. 여기에서 인간은 자신보다 기계를 더 신뢰하는 경향이 있습니다.”

이 잠재력은 특히 전문가들이 알고리즘이 잘못된 행동을 유발할 수있는 인간의 편견으로 사전 프로그래밍 될 수 있다고 경고 할 때 매우 중요합니다..

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me