Algoritmii de învățare automată (MLA) analizează cantități vaste de date la viteze de trăsnet. Seturile de date care erau cândva prea mari pentru ca oamenii să poată evalua corect pot fi acum exploatate pentru a lua decizii medicale care să salveze viața. Întrebarea arzătoare este dacă AI ar trebui să i se permită să ia aceste alegeri. Și, dacă da, cum afectează medicii, pacienții și actualele cadre legale și de reglementare?


Experții Laboratorului de Etică și Politici în Sănătate din Zurich, Elveția, sunt doar un grup care începe să scoată alarma în ceea ce privește utilizarea AI. O lucrare publicată recent exprimă îngrijorarea că pacienților li s-ar putea refuza tratamentele vitale din cauza prejudecății din cadrul MLAs.

Punctul crucial al problemei se învârte în jurul modului în care se dezvoltă MLA-uri. Lucrarea sugerează că sistemele automatizate au fost instruite în primul rând folosind date extrase de la pacienți caucazieni de sex masculin. Această „lipsă de diversitate” poate duce la prejudecăți care provoacă erori. Ca urmare, grupurile marginalizate pot ajunge să sufere de rate mai mari de eșec medical.

Un alt punct de presiune este creat de prejudecățile umane existente în „inputurile neuronale” exploatate de MLAs. Aceste seturi de date masive creează potențialul pentru AI de a imita sau re-exprima prejudecățile umane existente.

Tipurile de prejudecăți care ar putea trece de la oameni la AI includ prejudecățile față de indicele de masă corporală mare (IMC), rasele sau grupurile etnice și discriminarea de gen. Aceasta este extrem de deranjantă, deoarece cercetătorii sugerează deja că AI este capabil să își facă viața și decizii de moarte.

În Marea Britanie, cercetătorii au publicat recent un studiu în care AI a prezis corect mortalitatea prematură mai bine decât metodele tradiționale. Cercetătorii cred că acest lucru ar putea permite algoritmilor să folosească „factori demografici, biometrici, clinici și de stil de viață” pentru a individualiza pacienții care ar beneficia de o intervenție anterioară. Cu toate acestea, orice eșec în identificarea pacienților din cauza părtinirilor moștenite ar putea determina reținerea tratamentului din anumite grupuri.

Un alt studiu sugerează că AI poate identifica cu succes pacienții cu cancer care prezintă un risc ridicat de mortalitate de 30 de zile sau de 150 de zile. Conform acestei cercetări, AI ar putea fi folosit pentru a semnaliza pacienții înainte de a primi chimioterapie scumpă. Ideea este că ar putea fi mai bine să aloci acest tratament costisitor în altă parte.

Cercetările asupra piețelor globale, care a efectuat un studiu pe roboți medicali, au declarat pentru ProPrivacy.com că „rapoartele au sugerat că pacienților cu cancer cu sângerare severă li s-a recomandat un medicament care ar putea duce la agravarea sângerării.”

Cu altă ocazie, un algoritm AI conceput pentru a prezice pacienții cu pneumonie ar putea fi descărcat în siguranță - a decis în mod incorect că pacienții cu istoric de astm au un risc mai mic de a muri. RGM ne-a spus:

„Acest lucru se datora faptului că a fost adevărat din datele de instruire, deoarece pacienții cu astm de obicei mergeau la UCI, primeau îngrijiri mai agresive și astfel erau mai puțin susceptibili să moară. Algoritmul nu a înțeles acest lucru și a folosit regula că, dacă cineva are astm, ar trebui să fie tratat ca un ambulatoriu. ”

Shailin Thomas, un asociat de cercetare de la Universitatea Harvard, notează că „chiar și cei mai buni algoritmi vor da naștere la o răspundere potențială substanțială a unui procent din timp”. Acest potențial inerent al răspunderii creează un puzzle, deoarece este dificil să înțelegem exact cine ar trebui să fie deținut. răspunde pentru ceea ce este în cele din urmă un procent garantat de greșeli.

Karl Foster, director juridic la Blake Morgan, a declarat pentru ProPrivacy.com că, deocamdată, clinicienii vor rămâne responsabili:

„În cele din urmă, clinicienii sunt responsabili pentru pacienții lor; este un principiu imperativ al profesiei medicale. Utilizarea AI nu este probabil să schimbe această poziție, cu siguranță pe termen scurt ”

„Dacă ne imaginăm rezultatele testului de interogare AI și determinăm că un rezultat anume crește riscul de a dezvolta o afecțiune medicală specifică la un pacient, în cele din urmă - și în prezent - este pentru clinician să investigheze mai departe. Clinicianul va rămâne responsabil pentru interpretarea datelor furnizate de AI în lumina altor informații clinice și de a lua o decizie cu privire la cel mai bun tratament. ”

Psihiatrul și omul de știință al datelor, Carlo Carandang, pe de altă parte, consideră că răspunderea ar putea avea parte de producători:

„Aplicațiile AI vor fi tratate ca dispozitive medicale, astfel încât performanța acestor aplicații de AI clinice va fi responsabilitatea companiilor care le construiește, precum și FDA și a altor agenții de reglementare care supraveghează astfel de dispozitive medicale.”

Cercetările privind piețele globale (RGM) au declarat pentru ProPrivacy.com că, deși în prezent, clinicienii par să rămână responsabili „în cazul în care vătămarea este cauzată de conținut incorect, mai degrabă decât utilizarea necorespunzătoare a unui algoritm sau dispozitiv, atunci responsabilitatea trebuie să fie în sarcina celor care au proiectat și atunci calitatea a asigurat-o. ”RGM observă că„ este posibil ca această linie să nu fie atât de ușor de definit ”.

Thomas este îngrijorat de faptul că responsabilizarea firmelor ar putea duce la renunțarea la producerea algoritmilor cu totul. Acest lucru ar putea fi extrem de nociv pentru industria medicală, deoarece AI își dovedește deja potențialul.

În China, de exemplu, cercetătorii au folosit un algoritm pentru a detecta tumorile cerebrale cu mai mult succes decât cei mai buni medici ai națiunii. Aceste tipuri de descoperiri pot salva vieți - dar numai dacă firmele care produc IA pot face acest lucru fără preocupări constante de răspundere..

Michael Carson, avocat principal la Fletchers Solicitors, consideră că legislația actuală din Marea Britanie este potrivită pentru a face față apariției AI medicale. Carson a declarat pentru ProPrivacy.com că:

„Ar trebui să vedem AI ca doar un alt echipament de spital. Orice erori sau diagnosticări greșite făcute de AI ar trebui tratate ca o cerere de neglijență medicală, AI fiind doar un instrument folosit de spital.

„Legea este probabil suficient de robustă pentru a rezolva problemele care decurg din defecțiuni ale AI. În realitate, AI poate fi văzută ca un alt amestec de echipamente și software, care este deja predominant în cadrul Serviciului Național de Sănătate. "

Totuși, RGM remarcă faptul că legislația actuală poate să nu distingă suficient „cazurile în care există o eroare în defectarea diagnosticării unei tehnologii” și cazurile cauzate de „utilizarea de date inexacte sau inadecvate”.

La sfârșitul zilei, AI nu poate acționa decât asupra datelor pe care le oferă. Dacă aceste date sunt incorecte sau părtinitoare, înainte de a fi introduse - este greu de înțeles cum producătorii pot avea vina. Pe de altă parte, pare greu de acuzat profesioniștii din domeniul medical pentru deciziile luate din mâinile lor.

Foster a declarat pentru ProPrivacy.com că regimurile actuale de reglementare din SUA și Europa „în prezent nu anticipează învățarea automată în cazul în care software-ul sau seturile de date sunt proiectate să evolueze”. Drept urmare, întrebările legate de răspundere vor evolua în timp și autoritățile de reglementare vor avea nevoie să rămână flexibil să se schimbe.

Cine ar trebui să răspundă pentru MLA este o problemă complexă și există deja unele dezacorduri. Unul dintre lucruri pare sigur, datorită vitezei cu care AI-ul medical este în curs de dezvoltare, legiuitorii trebuie să fie atenți și trebuie să acționeze rapid pentru a se asigura că reglementările sunt pregătite să facă față. De prea multe ori, când apar noile tehnologii, descoperirile ating prematur piața, iar legiuitorii sunt nevoiți să joace pasul.

Una dintre cele mai mari probleme cu AI este că clinicienii nu înțeleg întotdeauna de ce MLA-urile iau decizii. Acest lucru se datorează faptului că AI face alegeri folosind seturi de date masive pe care oamenii nu le pot prelucra. RGM explică faptul că datorită ratelor de succes îmbunătățite:

„Medicii se pot considera că justifică în mod incorect deciziile luate de AI din cauza unui concept bine documentat cunoscut sub denumirea de prejudecăți de automatizare. Aici, oamenii pot avea tendința de a avea încredere într-o mașină mai mult decât ar putea avea încredere în ei înșiși. ”

Acest potențial este extrem de important, mai ales atunci când experții avertizează că algoritmii pot veni preprogramat cu prejudecăți umane care pot provoca greșeli.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me