Algoritma Pembelajaran Mesin (MLA) menganalisis sejumlah besar data pada kelajuan kilat. Set data yang terlalu besar untuk manusia untuk dinilai dengan betul kini boleh dieksploitasi untuk membuat keputusan perubatan yang menyelamatkan nyawa. Soalan terbakar adalah sama ada AI harus dibenarkan untuk membuat pilihan tersebut. Dan, jika ya, bagaimana ia menjejaskan doktor, pesakit, dan rangka kerja undang-undang dan peraturan semasa?

Pakar-pakar di Makmal Kesihatan Etika dan Dasar Kesihatan di Zurich, Switzerland, hanya satu kumpulan yang mula menimbulkan penggera terhadap penggunaan AI. Kertas yang baru diterbitkan menyatakan kebimbangan bahawa pesakit boleh dinafikan rawatan penting kerana bias dalam MLA.

Inti masalah ini berkisar mengenai bagaimana MLA sedang dibangunkan. Kertas ini menunjukkan bahawa sistem automatik telah dilatih terutamanya menggunakan data yang ditambang daripada pesakit lelaki Kaukasia lelaki. Ini "kekurangan kepelbagaian" boleh menyebabkan bias yang menyebabkan kesilapan. Akibatnya, kumpulan yang terpinggir mungkin berakhir dengan kadar kegagalan perubatan yang lebih tinggi.

Satu lagi titik tekanan dicipta oleh bias manusia sedia ada dalam "input saraf" yang dieksploitasi oleh MLA. Data set besar-besaran ini mencipta potensi untuk AI meniru atau menyiarkan semula kecenderungan manusia yang sedia ada.

Jenis bias yang berpotensi lulus dari manusia ke AI termasuk prasangka terhadap Indeks Massa Tubuh tinggi (BMI), kaum atau kumpulan etnik, dan diskriminasi jantina. Ini sangat mengganggu, kerana para penyelidik sudah menyarankan bahawa AI mampu membuat hidup dan keputusan kematian.


Di UK, penyelidik baru-baru ini menerbitkan satu kajian di mana AI dengan betul meramalkan kematian pramatang lebih baik daripada kaedah tradisional. Penyelidik percaya ini boleh membolehkan algoritma menggunakan "faktor demografi, biometrik, klinikal dan gaya hidup" untuk menonjolkan pesakit yang akan mendapat manfaat daripada campur tangan terdahulu. Walau bagaimanapun, sebarang kegagalan untuk menentukan pesakit akibat bias yang diwarisi boleh menyebabkan rawatan ditahan daripada kumpulan tertentu.

Satu lagi kajian mencadangkan bahawa AI berjaya mengenal pasti pesakit kanser yang berisiko tinggi dalam kematian 30 hari atau 150 hari. Menurut penyelidikan itu, AI boleh digunakan untuk menerbangkan pesakit sebelum mereka menerima kemoterapi mahal. Idea ini adalah lebih baik untuk memperuntukkan rawatan mahal di tempat lain.

Penyelidikan di Pasaran Global, yang telah menjalankan kajian mengenai robot perubatan, memberitahu ProPrivacy.com bahawa "laporan telah mencadangkan bahawa pesakit kanser dengan pendarahan yang teruk telah mencadangkan ubat yang boleh menyebabkan pendarahan menjadi semakin teruk."

Pada masa yang sama, algoritma AI direka untuk meramalkan pesakit yang mempunyai pneumonia yang selamat dapat disingkirkan - dengan salah memutuskan bahawa pesakit yang mempunyai riwayat asma mempunyai risiko yang lebih rendah untuk mati. RGM memberitahu kami:

"Ini adalah kerana ia benar dari data latihan, kerana pesakit yang menghidap asma biasanya pergi ke ICU, menerima penjagaan yang lebih agresif, dan begitu cenderung untuk mati. Algoritma tidak memahami ini dan menggunakan peraturan bahawa jika seseorang mempunyai asma, mereka harus dirawat sebagai pesakit luar. "

Shailin Thomas, penyelidik penyelidikan di Harvard University menyatakan bahawa "walaupun algoritma terbaik akan menimbulkan tanggungan yang berpotensi besar beberapa peratusan masa." Potensi yang ada untuk liabiliti ini membuat teka-teki, kerana sukar untuk memahami dengan tepat siapa yang harus diadakan bertanggungjawab untuk apa yang akhirnya mendapat peratusan terjamin kesilapan.

Karl Foster, Pengarah Undang-undang di Blake Morgan, memberitahu ProPrivacy.com bahawa, pada masa ini, doktor akan terus bertanggungjawab:

"Akhirnya, doktor bertanggungjawab untuk pesakit mereka; ia adalah prinsip utama profesion perubatan. Penggunaan AI tidak mungkin mengubah kedudukan itu, pastinya dalam jangka pendek "

"Jika kita membayangkan keputusan ujian interogasi AI dan menentukan bahawa keputusan tertentu meningkatkan risiko mengembangkan keadaan perubatan tertentu dalam pesakit, akhirnya - dan pada masa ini - bagi klinisi untuk menyiasat selanjutnya. Klinik itu akan kekal bertanggungjawab untuk menafsirkan data yang disediakan oleh AI berdasarkan maklumat klinikal lain, dan mencapai keputusan mengenai rawatan yang terbaik. "

Psikiatri dan saintis data Carlo Carandang, sebaliknya, berpendapat bahawa liabiliti boleh tinggal dengan pengeluar:

"Apl AI akan dianggap sebagai peranti perubatan, jadi prestasi aplikasi AI klinikal seperti itu akan menjadi tanggungjawab syarikat-syarikat yang membina mereka, dan FDA dan agensi kawal selia lain yang mengawasi peranti perubatan sedemikian."

Penyelidikan di Pasaran Global (RGM) memberitahu ProPrivacy.com bahawa walaupun ahli klinik kini kelihatan tetap bertanggungjawab "sekiranya terdapat bahaya yang disebabkan oleh kandungan yang salah dan tidak menggunakan algoritma atau peranti yang tidak betul, maka akauntabiliti mestilah terletak pada mereka yang merancang dan maka kualiti menjaminnya. "RGM menyatakan bahawa" garis ini mungkin tidak begitu mudah untuk ditentukan. "

Thomas prihatin bahawa memegang firma bertanggungjawab boleh membawa kepada mereka berhenti mengeluarkan algoritma sama sekali. Ini mungkin sangat menjejaskan industri perubatan, kerana AI sudah membuktikan potensinya.

Sebagai contoh, di China, para penyelidik menggunakan algoritma untuk mengesan tumor otak lebih berjaya daripada doktor terbaik negara. Jenis terobosan ini dapat menyelamatkan nyawa - tetapi hanya jika firma yang menghasilkan AI dapat berbuat demikian tanpa keprihatinan liabiliti yang tetap.

Michael Carson, peguam kanan di Fletchers Solicitors percaya bahawa dalam undang-undang semasa UK adalah sesuai untuk menangani kemunculan perubatan AI. Carson memberitahu ProPrivacy.com bahawa:

"Kita patut melihat AI sebagai satu lagi peralatan hospital. Apa-apa kesilapan atau misdiagnosis yang dibuat oleh AI perlu diuruskan sebagai tuntutan kecuaian perubatan, dengan AI hanya menjadi alat yang digunakan oleh hospital.

"Undang-undang ini mungkin cukup kuat untuk menangani isu-isu yang berpunca daripada kerosakan AI. Pada hakikatnya, AI dapat dilihat sebagai satu lagi gabungan peralatan dan perisian, yang sudah berleluasa di seluruh Perkhidmatan Kesihatan Nasional. "

Walau bagaimanapun, RGM menyatakan bahawa undang-undang semasa tidak dapat membezakan antara "kes di mana terdapat kesilapan dalam diagnosis kerosakan teknologi" dan kes-kes yang disebabkan oleh "penggunaan data yang tidak tepat atau tidak sesuai."

Pada akhir hari, AI hanya boleh bertindak atas data yang diberikan. Jika data itu tidak betul atau berat sebelah, sebelum ia dimasukkan - sukar untuk memahami bagaimana pengeluar boleh bersalah. Sebaliknya, nampaknya menyalahkan profesional perubatan untuk keputusan yang diambil dari tangan mereka.

Foster memberitahu ProPrivacy.com bahawa rejim pengawalseliaan semasa di Amerika Syarikat dan Eropah "kini tidak menjangkakan pembelajaran mesin di mana perisian atau set data direka untuk berkembang." Akibatnya, persoalan liabiliti sekitar mungkin berubah dari semasa ke semasa dan pengawal selia akan memerlukan untuk kekal fleksibel untuk berubah.

Siapa yang harus bertanggungjawab untuk MLA adalah isu yang rumit, dan sudah ada beberapa perselisihan. Satu perkara yang seolah-olah tertentu, kerana kelajuan yang mana AI pendidik perubatan baru muncul perlu berhati-hati, dan mesti bertindak cepat untuk memastikan peraturan-peraturan bersedia untuk menghadapi. Sering kali, apabila teknologi baru muncul, terobosan melanda pasaran sebelum ini dan penggubal undang-undang dipaksa untuk mengejar.

Salah satu masalah terbesar dengan AI adalah bahawa doktor tidak selalu memahami mengapa MLA membuat keputusan. Ini kerana AI membuat pilihan menggunakan set data besar-besaran manusia tidak boleh diproses. RGM menjelaskan bahawa disebabkan peningkatan kadar kejayaan:

"Doktor mungkin mendapati diri mereka tidak betul membenarkan keputusan yang dibuat oleh AI kerana konsep yang didokumentasikan dengan baik yang dikenali sebagai kecenderungan automasi. Di sini, manusia boleh mempunyai kecenderungan untuk mempercayai mesin lebih daripada yang mereka percayai sendiri. "

Potensi ini amat berkaitan, terutamanya apabila pakar memberi amaran bahawa algoritma mungkin datang diprogramkan dengan bias manusia yang boleh menyebabkan penyelewengan.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me