ใครควรรับผิดชอบต่อข้อผิดพลาดทางการแพทย์ที่เกิดจาก AI

อัลกอริทึมการเรียนรู้ของเครื่อง (MLAs) วิเคราะห์ข้อมูลจำนวนมหาศาลด้วยความเร็วสูง ชุดข้อมูลที่ครั้งหนึ่งเคยมีขนาดใหญ่เกินกว่าที่มนุษย์จะประเมินได้อย่างถูกต้องสามารถนำไปใช้ในการตัดสินใจทางการแพทย์ที่ช่วยชีวิตได้ คำถามที่แสบร้อนคือ AI ควรได้รับอนุญาตให้ทำการเลือกเหล่านั้นหรือไม่ และถ้าใช่มันมีผลต่อแพทย์ผู้ป่วยและกรอบกฎหมายและระเบียบข้อบังคับในปัจจุบันอย่างไร?


ผู้เชี่ยวชาญที่ห้องปฏิบัติการจริยธรรมและนโยบายด้านสุขภาพในเมืองซูริคประเทศสวิตเซอร์แลนด์เป็นเพียงกลุ่มเดียวที่เริ่มส่งสัญญาณเตือนเกี่ยวกับการใช้ AI กระดาษที่ตีพิมพ์เมื่อเร็ว ๆ นี้แสดงความกังวลว่าผู้ป่วยอาจถูกปฏิเสธการรักษาที่สำคัญเนื่องจากอคติภายใน MLAs.

ปมของปัญหาหมุนรอบวิธีการพัฒนา MLAs บทความแสดงให้เห็นว่าระบบอัตโนมัติได้รับการฝึกอบรมเบื้องต้นโดยใช้ข้อมูลที่ขุดจากผู้ป่วยชาวคอเคเชี่ยนชาย “ การขาดความหลากหลาย” นี้อาจนำไปสู่อคติที่ทำให้เกิดข้อผิดพลาด เป็นผลให้กลุ่มชายขอบอาจสิ้นสุดความทุกข์ทรมานจากอัตราความล้มเหลวทางการแพทย์ที่สูงขึ้น.

จุดความดันอื่นถูกสร้างขึ้นโดยอคติมนุษย์ที่มีอยู่ภายใน "อินพุตประสาท" ที่ใช้ประโยชน์จาก MLAs ชุดข้อมูลขนาดใหญ่เหล่านั้นสร้างศักยภาพให้ AI เพื่อเลียนแบบหรือแสดงอคติของมนุษย์ที่มีอยู่ใหม่.

ชนิดของอคติที่อาจส่งผ่านจากมนุษย์ไปยัง AI ได้แก่ อคติต่อดัชนีมวลกายสูง (BMI), กลุ่มเชื้อชาติหรือกลุ่มชาติพันธุ์และการเลือกปฏิบัติทางเพศซึ่งเป็นการรบกวนอย่างมากเพราะนักวิจัยแนะนำว่า AI สามารถทำให้ชีวิตและ การตัดสินใจตาย.

ในสหราชอาณาจักรเมื่อเร็ว ๆ นี้นักวิจัยตีพิมพ์ผลการศึกษาที่ AI ทำนายการตายก่อนวัยอันควรได้อย่างถูกต้องดีกว่าวิธีการแบบดั้งเดิม นักวิจัยเชื่อว่าสิ่งนี้จะช่วยให้อัลกอริทึมสามารถใช้ประโยชน์จาก“ ปัจจัยด้านประชากร, ไบโอเมตริกซ์, คลินิกและไลฟ์สไตล์” กับผู้ป่วยเดี่ยวที่ได้รับประโยชน์จากการแทรกแซงก่อนหน้า อย่างไรก็ตามความล้มเหลวในการระบุผู้ป่วยอันเนื่องมาจากอคติที่สืบทอดมานั้นอาจทำให้การรักษาถูกระงับจากกลุ่มบางกลุ่ม.

การศึกษาอื่นชี้ให้เห็นว่า AI สามารถระบุผู้ป่วยโรคมะเร็งที่มีความเสี่ยงสูงต่อการเสียชีวิต 30 วันหรือ 150 วัน จากการวิจัยพบว่า AI สามารถใช้ในการติดธงผู้ป่วยก่อนที่จะได้รับเคมีบำบัดที่มีราคาแพง ความคิดที่ว่ามันอาจจะดีกว่าที่จะจัดสรรการรักษาที่มีราคาแพงที่อื่น.

งานวิจัยเกี่ยวกับตลาดโลกซึ่งได้ทำการศึกษาเกี่ยวกับหุ่นยนต์ทางการแพทย์บอกกับ ProPrivacy.com ว่า“ รายงานแนะนำว่าผู้ป่วยโรคมะเร็งที่มีเลือดออกรุนแรงได้รับการแนะนำยาที่อาจทำให้เลือดออกแย่ลง”

ในโอกาสอื่นอัลกอริทึม AI ออกแบบมาเพื่อคาดการณ์ว่าผู้ป่วยที่เป็นโรคปอดบวมจะถูกปล่อยออกอย่างปลอดภัย - ตัดสินใจผิดพลาดว่าผู้ป่วยที่มีประวัติโรคหอบหืดมีความเสี่ยงต่อการเสียชีวิตน้อยลง RGM บอกเรา:

“ นี่เป็นเพราะมันเป็นความจริงจากข้อมูลการฝึกอบรมเนื่องจากผู้ป่วยโรคหอบหืดมักไปที่ห้องไอซียูได้รับการดูแลที่ดุดันมากขึ้นและมีโอกาสตายน้อยกว่า อัลกอริทึมไม่เข้าใจสิ่งนี้และใช้กฎว่าถ้ามีคนเป็นโรคหอบหืดพวกเขาควรได้รับการปฏิบัติเหมือนเป็นผู้ป่วยนอก”

Shailin Thomas นักวิจัยจากมหาวิทยาลัยฮาร์วาร์ดกล่าวว่า“ แม้แต่อัลกอริธึมที่ดีที่สุดอาจก่อให้เกิดหนี้สินจำนวนมากในบางเวลา” ศักยภาพที่ซ่อนเร้นของความรับผิดนี้สร้างปริศนาขึ้นมาเพราะเป็นการยากที่จะเข้าใจว่าใครควรเป็นใคร รับผิดชอบต่อสิ่งที่เป็นร้อยละของการรับประกันข้อผิดพลาดในที่สุด.

Karl Foster ผู้อำนวยการฝ่ายกฎหมายของ Blake Morgan บอกกับ ProPrivacy.com ว่าในขณะนี้แพทย์จะยังคงรับผิดชอบต่อไป:

“ ในที่สุดแพทย์ต้องรับผิดชอบต่อผู้ป่วย มันเป็นหลักการที่สำคัญของวิชาชีพแพทย์ การใช้ AI ไม่น่าจะเปลี่ยนตำแหน่งนั้นแน่นอนในระยะสั้น”

“ หากเราจินตนาการถึงผลการซักถามทาง AI และการพิจารณาว่าผลลัพธ์เฉพาะนั้นจะเพิ่มความเสี่ยงในการพัฒนาเงื่อนไขทางการแพทย์ที่เฉพาะเจาะจงในผู้ป่วยในที่สุด - และในปัจจุบัน - สำหรับแพทย์จะทำการตรวจสอบต่อไป แพทย์จะยังคงรับผิดชอบในการตีความข้อมูลที่ได้รับจาก AI ในแง่ของข้อมูลทางคลินิกอื่น ๆ และถึงการตัดสินใจในการรักษาที่ดีที่สุด”

ในทางกลับกันจิตแพทย์และนักวิทยาศาสตร์ด้านข้อมูล Carlo Carandang รู้สึกว่าความรับผิดชอบอาจอยู่กับผู้ผลิต:

“ แอป AI จะได้รับการปฏิบัติเหมือนเป็นอุปกรณ์ทางการแพทย์ดังนั้นประสิทธิภาพของแอพ AI ทางคลินิกดังกล่าวจะเป็นความรับผิดชอบของ บริษัท ที่สร้างแอปเหล่านั้นและ FDA และหน่วยงานกำกับดูแลอื่น ๆ ที่ดูแลอุปกรณ์การแพทย์ดังกล่าว”

งานวิจัยเกี่ยวกับ Global Markets (RGM) บอกกับ ProPrivacy.com ว่าแม้ว่าแพทย์ในปัจจุบันดูเหมือนจะยังคงต้องรับผิดชอบต่อ "ในกรณีที่เกิดอันตรายจากเนื้อหาที่ไม่ถูกต้องแทนที่จะใช้อัลกอริทึมหรืออุปกรณ์ที่ไม่เหมาะสม แต่ความรับผิดชอบต้องอยู่กับผู้ออกแบบและ จากนั้นให้ความมั่นใจในคุณภาพ” RGM กล่าวว่า“ บรรทัดนี้อาจไม่ง่ายในการกำหนด”

โทมัสเป็นห่วงว่า บริษัท ที่รับผิดชอบอาจนำไปสู่การเลิกผลิตอัลกอริทึมโดยสิ้นเชิง นี่อาจเป็นอันตรายอย่างยิ่งต่ออุตสาหกรรมการแพทย์เนื่องจาก AI ได้พิสูจน์ศักยภาพแล้ว.

ยกตัวอย่างเช่นในประเทศจีนนักวิจัยใช้อัลกอริทึมในการตรวจหาเนื้องอกในสมองได้สำเร็จกว่าแพทย์ที่ดีที่สุดของประเทศการค้นพบเหล่านี้สามารถช่วยชีวิตคนได้ แต่ถ้า บริษัท ที่ผลิต AI สามารถทำได้โดยไม่ต้องกังวลเรื่องหนี้สิน.

Michael Carson นักกฎหมายอาวุโสของทนายความ Fletchers เชื่อว่าในกฎหมายของสหราชอาณาจักรในปัจจุบันเหมาะสมที่จะรองรับการเกิดขึ้นของ AI ทางการแพทย์ Carson บอกกับ ProPrivacy.com ว่า:

“ เราควรมองว่า AI เป็นเพียงอุปกรณ์ส่วนหนึ่งของโรงพยาบาล ข้อผิดพลาดใด ๆ หรือการวินิจฉัยผิดพลาดที่ทำโดย AI ควรได้รับการจัดการในฐานะการเรียกร้องความประมาทเลินเล่อทางการแพทย์โดยใช้ AI เป็นเพียงเครื่องมือที่โรงพยาบาลใช้.

“ กฎหมายน่าจะแข็งแกร่งพอที่จะรับมือกับปัญหาที่เกิดจากการทำงานผิดปกติของ AI ในความเป็นจริงแล้ว AI สามารถเห็นได้ว่าเป็นเพียงการผสมผสานระหว่างอุปกรณ์และซอฟต์แวร์ซึ่งแพร่หลายไปทั่วบริการสุขภาพแห่งชาติ”

อย่างไรก็ตาม RGM ตั้งข้อสังเกตว่ากฎหมายปัจจุบันอาจไม่สามารถแยกความแตกต่างระหว่าง "กรณีที่มีข้อผิดพลาดในการวินิจฉัยความผิดปกติของเทคโนโลยี" และกรณีที่เกิดจาก "การใช้ข้อมูลที่ไม่ถูกต้องหรือไม่เหมาะสม"

ในตอนท้ายของวัน AI สามารถดำเนินการกับข้อมูลที่ได้รับเท่านั้น หากข้อมูลนั้นไม่ถูกต้องหรือลำเอียงก่อนที่จะมีการป้อนข้อมูล - มันยากที่จะเข้าใจว่าผู้ผลิตสามารถผิดพลาดได้อย่างไร ในทางกลับกันมันเป็นเรื่องยากที่จะตำหนิผู้เชี่ยวชาญทางการแพทย์ในการตัดสินใจจากมือของพวกเขา.

Foster บอกกับ ProPrivacy.com ว่าระบบกฎระเบียบในปัจจุบันในสหรัฐอเมริกาและยุโรป“ ไม่คาดว่าจะเรียนรู้เครื่องจักรในขณะที่ซอฟต์แวร์หรือชุดข้อมูลได้รับการออกแบบมาเพื่อพัฒนา” ผลลัพธ์ที่ได้คือคำถามที่เกี่ยวข้องกับความรับผิดชอบมีแนวโน้มที่จะพัฒนาไปตามกาลเวลา เพื่อคงความยืดหยุ่นในการเปลี่ยนแปลง.

ใครควรรับผิดชอบ MLAs เป็นปัญหาที่ซับซ้อนและมีความขัดแย้งอยู่บ้าง บางสิ่งบางอย่างดูเหมือนจะแน่นอนเนื่องจากความเร็วที่ AI ทางการแพทย์เป็นผู้ออกกฎหมายใหม่จำเป็นต้องระมัดระวังและต้องดำเนินการอย่างรวดเร็วเพื่อให้มั่นใจว่ากฎระเบียบพร้อมที่จะรับมือ บ่อยครั้งที่เทคโนโลยีใหม่ ๆ เกิดขึ้นความก้าวหน้าในตลาดก่อนเวลาอันควรและผู้ออกกฎหมายถูกบังคับให้ต้องไล่ตาม.

หนึ่งในปัญหาที่ใหญ่ที่สุดของ AI คือแพทย์ไม่เข้าใจเสมอว่าทำไม MLAs ถึงตัดสินใจ เนื่องจาก AI เลือกตัวเลือกโดยใช้ชุดข้อมูลขนาดใหญ่ที่มนุษย์ไม่สามารถดำเนินการได้ RGM อธิบายว่าเนื่องจากอัตราความสำเร็จที่ดีขึ้น:

“ แพทย์อาจพบว่าตนเองไม่ถูกต้องในการตัดสินใจที่ทำโดย AI เนื่องจากแนวคิดที่ได้รับการบันทึกไว้อย่างดีซึ่งรู้จักกันในนามของอคติอัตโนมัติ ที่นี่มนุษย์มีแนวโน้มที่จะไว้วางใจเครื่องจักรมากกว่าที่พวกเขาจะไว้ใจตัวเอง”

ศักยภาพนี้มีความเกี่ยวข้องอย่างยิ่งโดยเฉพาะเมื่อผู้เชี่ยวชาญเตือนว่าอัลกอริทึมอาจมาพร้อมกับอคติของมนุษย์ล่วงหน้าซึ่งอาจทำให้เกิดการทุจริตต่อหน้าที่.

Brayan Jackson Administrator
Candidate of Science in Informatics. VPN Configuration Wizard. Has been using the VPN for 5 years. Works as a specialist in a company setting up the Internet.
follow me
Like this post? Please share to your friends:
Leave a Reply

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!:

− 2 = 1

map