אלגוריתמים למידת מכונות (MLA) מנתחים כמויות עצומות של נתונים במהירות הבזק. ניתן לנצל מערכות נתונים שהיו בעבר גדולות מכדי שאדם יוכל להעריך כראוי כדי לקבל החלטות רפואיות מצילות חיים. השאלה הבוערת היא האם יש לאפשר ל- AI לבצע את הבחירות הללו. ואם כן, איך זה משפיע על רופאים, חולים ועל המסגרות החוקיות והרגולטוריות הנוכחיות?


מומחים במעבדת אתיקה ומדיניות בריאות בציריך, שווייץ, הם רק קבוצה אחת שמתחילה להבהיל את השימוש ב- AI. מאמר שפורסם לאחרונה מביע חשש כי ניתן לשלול חולים טיפולים חיוניים עקב הטיות בתוך MLAs.

עיקרה של הבעיה נסוב סביב פיתוח ה- MLAs. העיתון מציע כי מערכות אוטומטיות הוכשרו בעיקר באמצעות נתונים שנכרתו מחולים קווקזים גברים. "חוסר גיוון" זה יכול להוביל להטיות הגורמות לטעויות. כתוצאה מכך, קבוצות שוליות עלולות בסופו של דבר לסבול משיעור כשל רפואי גבוה יותר.

נקודת לחץ נוספת נוצרת על ידי הטיות אנושיות קיימות בתוך "תשומות עצביות" המנוצלות על ידי ה- MLAs. מערכי הנתונים המסיביים הללו יוצרים את הפוטנציאל של ה- AI לחקות או לבטא מחדש הטיות אנושיות קיימות.

סוגים של הטיות שעלולות לעבור מבני אדם ל- AI כוללים דעות קדומות כלפי מדד מסת מסת גוף גבוה (BMI), קבוצות גזעיות או אתניות, ואפליה מגדרית. הדבר מטריד מאוד, מכיוון שהחוקרים כבר מציעים ש- AI מסוגל ליצור חיים החלטות מוות.

בבריטניה פרסמו לאחרונה החוקרים מחקר בו AI ניבא נכון נכון תמותה מוקדמת יותר טוב משיטות מסורתיות. החוקרים מאמינים שהדבר יכול לאפשר לאלגוריתמים להשתמש ב"גורמים דמוגרפיים, ביומטריים, קליניים וסגנון חיים "למטופלים יחידים שישתמרו מהתערבות קודמת. עם זאת, כל כשל באיתור חולים כתוצאה מהטיות תורשתיות עלול לגרום למניעת הטיפול מקבוצות מסוימות.

מחקר אחר מציע כי AI יכול לזהות בהצלחה חולי סרטן הנמצאים בסיכון גבוה לתמותה של 30 יום או 150 יום. על פי מחקר זה, AI יכול לשמש כדי לסמן חולים לפני שהם מקבלים כימותרפיה יקרה. הרעיון הוא שעדיף להקצות טיפול יקר אחר במקום אחר.

מחקר שנערך ב- Global Markets, שערך מחקר על רובוטים רפואיים, אמר ל- ProPrivacy.com כי "דיווחים העלו כי חולי סרטן עם דימום חמור הומלצה על תרופה שעלולה לגרום להחמרת הדימום."

בהזדמנות אחרת, אלגוריתם AI שנועד לחזות אילו חולים עם דלקת ריאות יכולים להשתחרר בבטחה - באופן שגוי החליטו כי חולים עם היסטוריה של אסתמה היו בסיכון נמוך יותר למות. RGM אמר לנו:

"זה מכיוון שזה היה נכון מנתוני האימונים, שכן חולים עם אסתמה בדרך כלל הלכו לטיפול נמרץ לטיפול נמרץ, קיבלו טיפול אגרסיבי יותר, ולכן פחות סיכו למות. האלגוריתם לא הבין זאת והשתמש בכלל שאם מישהו סובל מאסטמה יש להתייחס אליו כאל אשפוז. "

שיילין תומאס, מקורב למחקר מאוניברסיטת הרווארד, מציין כי "אפילו האלגוריתמים הטובים ביותר יניבו אחריות פוטנציאלית מהותית אחוז מהזמן." פוטנציאל אחריות מובנה זה יוצר חידה, מכיוון שקשה להבין בדיוק את מי צריך להחזיק. אחראי למה שהוא בסופו של דבר אחוז טעויות מובטח.

קארל פוסטר, המנהל המשפטי בבלייק מורגן, אמר ל- ProPrivacy.com כי לעת עתה, קלינאים יישארו אחראים:

"בסופו של דבר הקלינאים אחראים למטופליהם; זהו עיקרון מכריע של מקצוע הרפואה. השימוש ב- AI לא סביר שישנה את העמדה הזו, בטח בטווח הקצר ".

"אם אנו מדמיינים ש- AI חוקר תוצאות בדיקות וקובע כי תוצאה מסוימת מגדילה את הסיכון לפתח מצב רפואי ספציפי בחולה, בסופו של דבר - וכרגע - על המטפל לבדוק את הדברים. הקלינאי יישאר אחראי לפרשנות הנתונים שנמסרו על ידי AI לאור מידע קליני אחר ולהגיע להחלטה על הטיפול הטוב ביותר. "

הפסיכיאטר ומדען הנתונים, קרלו קרנדאנג, לעומת זאת, מרגיש כי אחריות עשויה להתגורר אצל היצרנים:

"אפליקציות AI יטופלו כמכשירים רפואיים, ולכן הביצועים של אפליקציות AI קליניות כאלה יהיו באחריות החברות הבונות אותן, ושל ה- FDA וסוכנויות רגולטוריות אחרות המפקחות על מכשירים רפואיים כאלה."

מחקרים שנערכו בשווקים גלובליים (RGM) אמרו ל- ProPrivacy.com שלמרות שקלינין נראים כרגע עלולים להיות אחראים "במקרה של פגיעה שנגרמה כתוצאה מתוכן שגוי ולא משימוש לא נכון באלגוריתם או במכשיר, אזי דין וחשבון האחריות מוטלת על מי שעיצב ותוכנן ואז הבטיחו את האיכות. "RGM מציין כי" קו זה לא יכול להיות כה קל להגדרה. "

תומאס חושש שהחזקת חברות אחראיות עלולה להביא לכך שהם יפסיקו לייצר את האלגוריתמים לחלוטין. זה יכול להזיק מאוד לתעשייה הרפואית, מכיוון ש- AI כבר מוכיח את הפוטנציאל שלו.

בסין, למשל, החוקרים השתמשו באלגוריתם לגילוי גידולי מוח בהצלחה רבה יותר מאשר מיטב הרופאים במדינה. סוגים של פריצות דרך מסוגלות אלה יכולות להציל חיים - אך רק אם החברות המייצרות AI יכולות לעשות זאת ללא חששות אחריות מתמדת..

מייקל קרסון, עורך הדין הבכיר בחברת עורכי הדין Fletchers Solicitors, מאמין כי בחקיקה בבריטניה יש אפשרות להתמודד עם הופעתה של מחלת הסיכון הרפואית. קרסון אמר ל- ProPrivacy.com כי:

"עלינו לראות ב- AI סתם עוד ציוד בית חולים. יש לטפל בכל טעויות או אבחנה שגויה שנעשו על ידי ה- AI כטענת רשלנות רפואית, כאשר ה- AI הוא רק כלי המשמש את בית החולים..

החוק ככל הנראה מספיק חזק כדי להתמודד עם סוגיות הנובעות מתקלות AI. במציאות, ניתן לראות ב- AI סתם עוד תערובת של ציוד ותוכנה, שכבר נפוצה ברחבי שירות הבריאות הלאומי. "

עם זאת, RGM מציינת כי החקיקה הנוכחית עשויה שלא להבחין מספיק בין "מקרים בהם קיימת שגיאה באבחון תקלה של טכנולוגיה" לבין מקרים הנגרמים כתוצאה מ"שימוש במידע לא מדויק או בלתי הולם ".

בסופו של יום, AI יכול לפעול רק על פי הנתונים שנמסרים לו. אם נתונים אלה אינם נכונים או מוטים, לפני שהם מוחדרים - קשה להבין כיצד היצרנים יכולים להיתקל באשמה. מצד שני, נראה שקשה להאשים את אנשי הרפואה בהחלטות שנלקחו מידיהם.

פוסטר אמר ל- ProPrivacy.com כי משטרי הרגולציה הנוכחיים בארה"ב ובאירופה "אינם צופים כעת לימוד מכונות היכן שהתוכנה או מערכי הנתונים נועדו להתפתח." כתוצאה מכך, שאלות סביב אחריות עשויות להתפתח עם הזמן והרגולטורים יצטרכו להתפתח. להישאר גמישים לשינוי.

מי שצריך להיות אחראי ל MLAs הוא נושא מורכב, וכבר קיימת מחלוקת מסוימת. הדברים נראים בטוחים, בגלל המהירות בה מתעוררים מחלקת תעופה רפואית המחוקקים צריכים להיזהר, ועליהם לפעול במהירות כדי להבטיח שהתקנות מוכנות להתמודד. לעתים קרובות מדי, כאשר מתעוררות טכנולוגיות חדשות, פריצות דרך פוגעות בשוק בטרם עת והמחוקקים נאלצים להמשיך ולהשיג.

אחת הבעיות הגדולות עם AI היא שמטפלים לא תמיד מבינים מדוע MLAs מקבלים החלטות. הסיבה לכך היא שה- AI מבצע בחירות באמצעות מערכי נתונים מאסיביים שבני אדם אינם יכולים לעבד. RGM מסביר כי עקב שיעורי ההצלחה המשופרים:

"רופאים עשויים למצוא את עצמם מצדיקים באופן שגוי החלטות שהתקבלו על ידי AI בגלל מושג מתועד היטב המכונה הטיה אוטומציה. כאן, לבני אדם יכולה להיות נטייה לסמוך על מכונה יותר מכפי שהם עשויים לסמוך על עצמם. "

פוטנציאל זה מאוד נוגע, במיוחד כאשר מומחים מזהירים כי אלגוריתמים עשויים להיות מתוכנתים מראש עם הטיות אנושיות העלולים לגרום לרשלנות רפואית.

Brayan Jackson
Brayan Jackson Administrator
Sorry! The Author has not filled his profile.
follow me