Machine Learning Algorithms (MLA) menganalisis sejumlah besar data dengan kecepatan kilat. Kumpulan data yang dulunya terlalu besar bagi manusia untuk dievaluasi dengan benar sekarang dapat dieksploitasi untuk membuat keputusan medis yang menyelamatkan jiwa. Pertanyaan yang membakar adalah apakah AI harus diizinkan untuk membuat pilihan-pilihan itu. Dan, jika ya, bagaimana pengaruhnya terhadap dokter, pasien, dan kerangka kerja hukum dan peraturan saat ini?

Para ahli di Lab Etika dan Kebijakan Kesehatan di Zurich, Swiss, hanyalah satu kelompok yang mulai mengkhawatirkan penggunaan AI. Sebuah makalah yang baru-baru ini diterbitkan mengungkapkan kekhawatiran bahwa pasien dapat ditolak perawatan vital karena bias dalam MLA.

Inti masalahnya berkisar pada bagaimana MLA sedang dikembangkan. Makalah ini menunjukkan bahwa sistem otomatis terutama telah dilatih menggunakan data yang ditambang dari pasien Kaukasia pria. “Kurangnya keragaman” ini dapat menyebabkan bias yang menyebabkan kesalahan. Akibatnya, kelompok yang terpinggirkan mungkin berakhir dengan tingkat kegagalan medis yang lebih tinggi.

Titik tekanan lain diciptakan oleh bias manusia yang ada dalam "input saraf" yang dieksploitasi oleh MLA. Kumpulan data besar tersebut menciptakan potensi AI untuk meniru atau mengekspresikan kembali bias manusia yang ada.

Jenis-jenis bias yang berpotensi menular dari manusia ke AI termasuk prasangka terhadap Indeks Massa Tubuh (BMI) yang tinggi, kelompok ras atau etnis, dan diskriminasi gender. Ini sangat mengganggu, karena para peneliti sudah menyarankan bahwa AI mampu membuat kehidupan dan keputusan kematian.


Di Inggris, para peneliti baru-baru ini menerbitkan sebuah studi di mana AI secara tepat memprediksi kematian dini lebih baik daripada metode tradisional. Para peneliti percaya ini dapat memungkinkan algoritma untuk menggunakan "faktor demografi, biometrik, klinis dan gaya hidup" untuk memilih pasien yang akan mendapat manfaat dari intervensi sebelumnya. Namun, setiap kegagalan untuk menentukan pasien karena bias yang diwariskan dapat menyebabkan pengobatan ditahan dari kelompok tertentu.

Studi lain menunjukkan bahwa AI dapat berhasil mengidentifikasi pasien kanker yang berisiko tinggi kematian 30 hari atau 150 hari. Menurut penelitian itu, AI dapat digunakan untuk menandai pasien sebelum mereka menerima kemoterapi yang mahal. Gagasannya adalah bahwa mungkin lebih baik mengalokasikan perawatan yang mahal di tempat lain.

Penelitian di Global Markets, yang telah melakukan penelitian pada robot medis, mengatakan kepada ProPrivacy.com bahwa "laporan telah menyarankan bahwa pasien kanker dengan pendarahan hebat telah direkomendasikan obat yang dapat menyebabkan perdarahan memburuk."

Pada kesempatan lain, algoritma AI yang dirancang untuk memprediksi pasien pneumonia mana yang dapat dikeluarkan dengan aman - secara keliru memutuskan bahwa pasien dengan riwayat asma memiliki risiko kematian yang lebih rendah. RGM memberi tahu kami:

“Ini karena itu benar dari data pelatihan, karena pasien dengan asma biasanya pergi ke ICU, menerima perawatan yang lebih agresif, dan kecil kemungkinannya untuk meninggal. Algoritma tidak memahami hal ini dan menggunakan aturan bahwa jika seseorang menderita asma mereka harus diperlakukan sebagai pasien rawat jalan. ”

Shailin Thomas, seorang rekan peneliti di Universitas Harvard mencatat bahwa "bahkan algoritma terbaik akan menimbulkan potensi pertanggungjawaban substansial beberapa persen dari waktu." Potensi yang melekat untuk pertanggungjawaban ini menciptakan teka-teki, karena sulit untuk memahami dengan tepat siapa yang harus dipegang bertanggung jawab atas apa yang pada akhirnya merupakan persentase kesalahan yang dijamin.

Karl Foster, Direktur Hukum di Blake Morgan, mengatakan kepada ProPrivacy.com bahwa, untuk saat ini, dokter akan tetap bertanggung jawab:

“Pada akhirnya, dokter bertanggung jawab untuk pasien mereka; itu adalah prinsip utama dari profesi medis. Penggunaan AI tidak mungkin mengubah posisi itu, tentunya dalam jangka pendek ”

“Jika kita membayangkan hasil tes AI interogasi dan menentukan bahwa hasil tertentu meningkatkan risiko mengembangkan kondisi medis tertentu pada pasien, pada akhirnya - dan saat ini - adalah untuk dokter untuk menyelidiki lebih lanjut. Dokter akan tetap bertanggung jawab untuk menginterpretasikan data yang disediakan oleh AI berdasarkan informasi klinis lainnya, dan mencapai keputusan tentang perawatan terbaik. ”

Psikiater dan ilmuwan data Carlo Carandang, di sisi lain, merasa bahwa tanggung jawab dapat berada pada pabrikan:

"Aplikasi AI akan diperlakukan sebagai perangkat medis, sehingga kinerja aplikasi AI klinis tersebut akan menjadi tanggung jawab perusahaan yang membangunnya, dan FDA serta badan pengatur lainnya yang mengawasi perangkat medis tersebut."

Penelitian tentang Pasar Global (RGM) mengatakan kepada ProPrivacy.com bahwa meskipun saat ini dokter tampaknya tetap bertanggung jawab “jika terjadi kerusakan yang disebabkan oleh konten yang salah daripada penggunaan algoritma atau perangkat yang tidak tepat, maka pertanggungjawaban harus ada pada mereka yang merancang dan maka kualitas meyakinkannya. "RGM mencatat bahwa" baris ini mungkin tidak mudah untuk didefinisikan. "

Thomas khawatir bahwa meminta pertanggungjawaban perusahaan dapat membuat mereka berhenti memproduksi algoritme sama sekali. Ini bisa sangat merugikan industri medis, karena AI sudah membuktikan potensinya.

Di Cina, misalnya, para peneliti menggunakan algoritma untuk mendeteksi tumor otak lebih berhasil daripada dokter terbaik bangsa. Jenis terobosan ini dapat menyelamatkan nyawa - tetapi hanya jika perusahaan yang menghasilkan AI dapat melakukannya tanpa kekhawatiran tanggung jawab yang konstan.

Michael Carson, pengacara senior di Fletchers Solicitors percaya bahwa di Inggris undang-undang saat ini cocok untuk menangani kemunculan AI medis. Carson memberi tahu ProPrivacy.com bahwa:

“Kita harus memandang AI hanya sebagai bagian dari peralatan rumah sakit. Setiap kesalahan atau kesalahan diagnosis yang dilakukan oleh AI harus ditangani sebagai klaim kelalaian medis, dengan AI hanya menjadi alat yang digunakan oleh rumah sakit.

“Undang-undang tersebut kemungkinan sudah cukup kuat untuk menangani masalah yang berasal dari kegagalan fungsi AI. Pada kenyataannya, AI dapat dilihat hanya sebagai campuran peralatan dan perangkat lunak, yang sudah lazim di seluruh Layanan Kesehatan Nasional. ”

RGM, bagaimanapun, mencatat bahwa undang-undang saat ini mungkin tidak cukup membedakan antara "kasus di mana ada kesalahan dalam diagnosis kegagalan teknologi" dan kasus yang disebabkan oleh "penggunaan data yang tidak akurat atau tidak tepat."

Pada akhirnya, AI hanya dapat bertindak berdasarkan data yang diberikan. Jika data itu tidak benar atau bias, sebelum dimasukkan - sulit untuk memahami bagaimana produsen bisa bersalah. Di sisi lain, tampaknya sulit untuk menyalahkan profesional medis atas keputusan yang diambil dari tangan mereka.

Foster mengatakan kepada ProPrivacy.com bahwa rezim peraturan saat ini di AS dan Eropa "saat ini tidak mengantisipasi pembelajaran mesin di mana perangkat lunak atau kumpulan data dirancang untuk berkembang." Akibatnya, pertanyaan seputar pertanggungjawaban cenderung berkembang seiring waktu dan regulator akan membutuhkan untuk tetap fleksibel untuk berubah.

Siapa yang harus bertanggung jawab atas MLA adalah masalah yang kompleks, dan sudah ada beberapa ketidaksepakatan. Satu hal yang tampaknya pasti, karena kecepatan ketika AI medis muncul, legislator perlu waspada, dan harus bertindak cepat untuk memastikan peraturan disiapkan untuk mengatasinya. Terlalu sering, ketika teknologi baru muncul, terobosan menghantam pasar secara prematur dan legislator dipaksa untuk mengejar ketinggalan.

Salah satu masalah terbesar dengan AI adalah bahwa dokter tidak selalu mengerti mengapa MLA mengambil keputusan. Ini karena AI membuat pilihan menggunakan kumpulan data besar yang tidak dapat diproses manusia. RGM menjelaskan bahwa karena peningkatan tingkat keberhasilan:

“Dokter mungkin menemukan diri mereka secara tidak benar membenarkan keputusan yang dibuat oleh AI karena konsep yang terdokumentasi dengan baik yang dikenal sebagai bias otomatisasi. Di sini, manusia dapat memiliki kecenderungan untuk memercayai sebuah mesin lebih dari yang mereka percayai pada diri mereka sendiri. ”

Potensi ini sangat memprihatinkan, terutama ketika para ahli memperingatkan bahwa algoritma mungkin diprogram sebelumnya dengan bias manusia yang dapat menyebabkan malpraktek..

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me