Makine Öğrenim Algoritmaları (MLA'lar) yıldırım hızlarında büyük miktarda veriyi analiz eder. Bir zamanlar insanlar için uygun şekilde değerlendirilemeyecek kadar büyük olan veri kümeleri artık hayat kurtaran tıbbi kararlar almak için kullanılabilir. Yanan soru, AI'nın bu seçimleri yapmasına izin verilip verilmeyeceğidir. Ve eğer evet ise, doktorları, hastaları ve mevcut yasal ve düzenleyici çerçeveleri nasıl etkiler??


Zürih, İsviçre'deki Sağlık Etiği ve Politika Laboratuarı uzmanları, AI kullanımı konusunda alarm vermeye başlayan sadece bir gruptur. Yakın zamanda yayınlanan bir makalede, hastaların MLA'lardaki önyargılar nedeniyle hayati tedavilerin reddedilebileceği endişesi dile getirilmektedir..

Sorunun temel noktası, MLA'ların nasıl geliştirildiği hakkındadır. Bu makale, otomatik sistemlerin öncelikle erkek Kafkas hastalarından çıkarılan veriler kullanılarak eğitildiğini göstermektedir. Bu “çeşitlilik eksikliği” hatalara neden olan önyargılara yol açabilir. Sonuç olarak, marjinal gruplar daha yüksek tıbbi başarısızlık oranlarından muzdarip olabilir.

Başka bir baskı noktası, MLA'ların sömürdüğü “sinirsel girdiler” içindeki mevcut insan yanlılıkları tarafından yaratılır. Bu devasa veri setleri Yapay Zeka'nın mevcut insan yanlılıklarını taklit etme veya yeniden ifade etme potansiyeli yaratıyor.

İnsanlardan AI'ya potansiyel olarak geçebilecek önyargı türleri arasında yüksek Vücut Kitle İndeksi (BMI), ırksal veya etnik gruplara ve cinsiyet ayrımcılığına önyargılar bulunmaktadır.Bu, araştırmacılar zaten AI'nın yaşam yapabileceğini ve ölüm kararları.

İngiltere'de araştırmacılar yakın zamanda AI'nın erken mortaliteyi geleneksel yöntemlerden daha iyi tahmin ettiği bir çalışma yayınladılar. Araştırmacılar, bunun daha erken müdahaleden faydalanacak hastaları belirlemek için algoritmaların “demografik, biyometrik, klinik ve yaşam tarzı faktörlerinden” yararlanmasına izin verebileceğine inanıyor. Bununla birlikte, kalıtsal önyargılar nedeniyle hastaları tespit edememek, tedavinin belirli gruplardan atılmasına neden olabilir..

Başka bir çalışma, AI'nın 30 günlük veya 150 günlük mortalite riski yüksek olan kanser hastalarını başarılı bir şekilde tanımlayabildiğini göstermektedir. Bu araştırmaya göre, AI pahalı kemoterapi almadan önce hastaları işaretlemek için kullanılabilir. Bu pahalı tedaviyi başka bir yere tahsis etmenin daha iyi olabileceği fikri.

Tıbbi robotlar üzerinde bir araştırma yapan Global Pazarlar üzerine yapılan araştırmalar ProPrivacy.com'a “raporlarda şiddetli kanaması olan kanser hastalarına kanamanın kötüleşmesine neden olabilecek bir ilaç önerildiğini öne sürdüğünü” söyledi.

Başka bir durumda, hangi pnömonili hastaların güvenle taburcu edilebileceğini tahmin etmek için tasarlanmış bir AI algoritması - yanlış bir şekilde astım öyküsü olan hastaların ölme riskinin daha düşük olduğuna karar verdi. RGM bize şunları söyledi:

“Bunun nedeni, astımlı hastalar genellikle yoğun bakım ünitesine gittiğinden, daha agresif bakım aldığından ve bu nedenle ölme olasılığı daha az olduğundan eğitim verilerinden doğruydu. Algoritma bunu anlamadı ve birisi astımı olsaydı ayakta tedavi görmesi gerektiği kuralını kullandı. ”

Harvard Üniversitesi'ndeki bir araştırma görevlisi olan Shailin Thomas, “en iyi algoritmaların bile potansiyel olarak önemli bir yükümlülüğe yol açacağını belirli bir süre için yüzde yüzlü hale getirdiğini” belirtiyor. sonuçta garantili hata yüzdesinden sorumludur.

Blake Morgan Hukuk Direktörü Karl Foster, ProPrivacy.com'a şu an için klinisyenlerin sorumlu kalacağını söyledi:

“Sonuçta, klinisyenler hastalarından sorumludur; tıp mesleğinin temel ilkesidir. Yapay zeka kullanımının bu pozisyonu değiştirmesi pek olası değildir, kesinlikle kısa vadede ”

“Yapay zekanın test sonuçlarını sorguladığını ve belirli bir sonucun bir hastada spesifik bir tıbbi durum geliştirme riskini artırdığını düşünürsek, sonuçta - ve şu anda - klinisyenin daha fazla araştırma yapması gerekir. Klinisyen, AI tarafından sağlanan verileri diğer klinik bilgiler ışığında yorumlamaktan ve en iyi tedavi ile ilgili bir karara varmaktan sorumlu kalacaktır. ”

Psikiyatrist ve veri bilimcisi Carlo Carandang ise sorumluluğun üreticilere ait olabileceğini düşünüyor:

“AI uygulamaları tıbbi cihazlar olarak değerlendirilecek, bu nedenle bu tür klinik AI uygulamalarının performansı, bunları oluşturan şirketlerin ve bu tür tıbbi cihazları denetleyen FDA ve diğer düzenleyici kurumların sorumluluğunda olacaktır.”

Global Pazarlar (RGM) üzerine yapılan araştırmalar ProPrivacy.com'a şu anda klinisyenlerin “bir algoritma veya cihazın yanlış kullanımı yerine yanlış içerikten kaynaklanan zararlar meydana gelmesi durumunda sorumlu” gibi görünmelerine rağmen, hesap verilebilirliğin tasarlayan ve kalite güvence verdi. ”RGM“ bu çizginin tanımlanması o kadar kolay olmayabilir. ”

Thomas, firmaları sorumlu tutmakla, algoritmaları tamamen üretmeyi bırakmalarına neden olabileceğinden endişe ediyor. Bu, tıbbi endüstri için son derece zararlı olabilir, çünkü AI zaten potansiyelini kanıtlıyor.

Örneğin Çin'de araştırmacılar, beyin tümörlerini ülkenin en iyi doktorlarından daha başarılı bir şekilde tespit etmek için bir algoritma kullandılar.Bu tür atılımlar hayat kurtarabilir - ancak yalnızca AI üreten firmalar bunu sürekli sorumluluk endişeleri olmadan yapabilirse.

Fletchers Avukatları kıdemli avukatı Michael Carson, İngiltere'de mevcut mevzuatın tıbbi AI'nın ortaya çıkması için uygun olduğuna inanıyor. Carson ProPrivacy.com'a şunları söyledi:

“Yapay zekayı sadece başka bir hastane ekipmanı parçası olarak görmeliyiz. AI tarafından yapılan herhangi bir hata veya yanlış teşhis tıbbi ihmal iddiası olarak ele alınmalıdır, AI sadece hastane tarafından kullanılan bir araçtır..

“Yasa, AI arızalarından kaynaklanan sorunlarla başa çıkmak için yeterince sağlamdır. Gerçekte yapay zeka, Ulusal Sağlık Hizmetinde zaten yaygın olan ekipman ve yazılımın başka bir karışımı olarak görülebilir. ”

Bununla birlikte, RGM, mevcut mevzuatın “bir teknolojinin teşhis arızasında bir hata olduğu durumlar” ile “yanlış veya uygunsuz verilerin kullanılması” nedenleri arasında yeterince ayrım yapmayabileceğini kaydeder.

Günün sonunda, AI yalnızca verilen verilere göre hareket edebilir. Bu veriler yanlış veya taraflıysa, girilmeden önce - üreticilerin nasıl hatalı olabileceğini anlamak zordur. Öte yandan, tıp uzmanlarını ellerinden alınan kararlar için suçlamak zor görünüyor.

Foster, ProPrivacy.com'a ABD ve Avrupa'daki mevcut düzenleyici rejimlerin “şu anda yazılım veya veri setlerinin gelişmek üzere tasarlandığı yerde makine öğrenmesini beklemediğini” söyledi. Sonuç olarak, sorumluluğu çevreleyen soruların zamanla gelişeceği ve düzenleyicilerin ihtiyaç duyacağı değişime esnek kalmak.

MLA'lardan kimin sorumlu olması karmaşık bir konudur ve halihazırda bazı anlaşmazlıklar vardır. Tıbbi AI'nın ortaya çıkma hızı nedeniyle yasa koyucuların ihtiyatlı olması ve düzenlemelerin başa çıkmaya hazır olmasını sağlamak için hızlı hareket etmesi gerekir. Çok sık, yeni teknolojiler ortaya çıktığında, atılımlar pazara erken vurur ve yasa koyucular yetişmeye zorlanır.

Yapay zeka ile ilgili en büyük sorunlardan biri, klinisyenlerin MLA'ların neden karar verdiğini her zaman anlamadıklarıdır. Çünkü AI, insanların işleyemediği devasa veri kümelerini kullanarak seçimler yapar. RGM, artan başarı oranları nedeniyle şunları açıklıyor:

“Doktorlar, otomasyon yanlılığı olarak bilinen iyi belgelenmiş bir kavram nedeniyle yapay zeka tarafından alınan kararları yanlış gerekçelendirebilirler. Burada insanlar bir makineye kendilerine güvenebileceğinden daha fazla güvenme eğiliminde olabilirler. ”

Bu potansiyel, özellikle uzmanlar, algoritmaların yanlış uygulamalara neden olabilecek insan önyargılarıyla önceden programlanmış olabileceği konusunda uyarıda bulunduğunda son derece önemlidir..

Brayan Jackson Administrator
Candidate of Science in Informatics. VPN Configuration Wizard. Has been using the VPN for 5 years. Works as a specialist in a company setting up the Internet.
follow me