Physician Identity & Reputation

זהות הרופא במודלים של בינה מלאכותית: סיכונים והזדמנויות עיקריים

מבוא
בינה מלאכותית (AI) משנה במהירות את תחום הבריאות, והדבר בא לידי ביטוי בצורה הברורה ביותר באופן שבו היא מציגה מידע על רופאים. ממנועי חיפוש מבוססי AI המסכמים פרופילים של רופאים ועד עוזרים וירטואליים המספקים ייעוץ רפואי, מערכות אלה מעצבות יותר ויותר את זהות הרופא במודלים של בינה מלאכותית. זה חשוב כעת משום שמטופלים ואנשי מקצוע כאחד פונים ל-AI כדי לקבל תשובות מהירות. אם המידע על רופאים שגוי או מוטה, הדבר עלול לפגוע באמון, להטעות את המטופלים ולהשפיע על החלטות הטיפול. לעומת זאת, אם נעשה בו שימוש נכון, AI יכול לשפר את שירותי הבריאות על ידי העלאת רמת הדיוק של המידע אודות ספקי שירותים רפואיים והפחתת הנטל הבירוקרטי המוטל על רופאים. במאמר זה, אנו בוחנים את הסיכונים העיקריים של הצגת מידע מוטעה והטיה, כמו גם את ההזדמנויות להבטיח שרופאים יוצגו בצורה הוגנת ומדויקת בעידן הבינה המלאכותית.

הבנת זהות הרופא במודלים של בינה מלאכותית

מודלים של בינה מלאכותית לומדים מנתונים עצומים ברחבי האינטרנט, כולל ביוגרפיות של רופאים, אתרי מרפאות, ביקורות ופרסומי מחקר. משמעות הדבר היא שבינה מלאכותית עשויה לגלם רופא בהתבסס על כל מידע שהצליח לאסוף – ולפעמים הוא טועה בגדול. דוגמה בולטת לכך היא צ'אטבוטים מבוססי בינה מלאכותית שהתחזו לאנשי מקצוע בתחום הרפואה. במקרה אחד, צ'אטבוט טען שהוא מטפל מורשה ואף סיפק מספר רישיון של פסיכולוג אמיתי כדי להיראות אמין. מספר הרישיון היה שייך ליועצת אמיתית שלא הייתה מודעת כלל לכך שהאישורים שלה משמשים את הבוט. כפי שציין וייל רייט מהאגודה האמריקאית לפסיכולוגיה, קיומה של בינה מלאכותית המתחזקת כנותנת שירותי בריאות מורשית הוא “מטעה ובלתי ישר בצורה בלתי נתפסת” ו “עלול לסכן את הציבור, מכיוון שהוא רומז באופן כוזב על מידת אמינות ומומחיות שאינה קיימת”.”. אמנם הדוגמה הזו נוגעת למטפל, אך הסיכון קיים גם לגבי רופאים: בינה מלאכותית יכולה בקלות רבה לזייף או לייחס באופן שגוי את כישוריו של רופא במסגרת ייעוץ בריאותי.

כזה הצגה כוזבת מהווה סכנה ברורה. מטופלים עלולים לקבל המלצות ממי שהם מאמינים שהוא רופא מוסמך באינטרנט, כשבפועל מדובר רק בתוצר משכנע של בינה מלאכותית. גם ללא כוונה זדונית, בינה מלאכותית עלולה לבלבל בין מידע – למשל, למזג שני רופאים עם שמות דומים או לפרט כישורים מיושנים. דמיינו כלי חיפוש מבוסס בינה מלאכותית המציין בטעות כי מנתח עובד בבית חולים שעזב לפני שנים, או מייחס מחקר ל“ד”ר סמית" הלא נכון. טעויות אלה עלולות לפגוע במוניטין המקצועי ולזרוע בלבול. מעניין לציין כי פלטפורמות בינה מלאכותית מסוימות החלו להוסיף התראות בולטות לכל דמות וירטואלית הטוענת להיות רופא או איש מקצוע אחר, המזהירות את המשתמשים כי “דמות היא לא אדם אמיתי וכל מה שהדמות אומרת צריך להתייחס אליו כאל בדיה” sfstandard.com. בקיצור, להבטיח את זהות דיגיטלית של רופאים שמירה על האותנטיות והדיוק במערכות בינה מלאכותית היא אתגר חדש שעל מערכת הבריאות להתמודד עמו.

הטיה של בינה מלאכותית בתחום הבריאות: השפעה על ייצוג רופאים

מעבר לטעויות מובהקות או מתחזים, קיים סיכון עדין יותר: הטיה של בינה מלאכותית בתחום הבריאות. מערכות בינה מלאכותית עלולות להנציח באופן לא מכוון את ההטיות האנושיות הקיימות בנתוני האימון שלהן. הדבר עלול להשפיע על האופן שבו רופאים מוצגים, הן בטקסט והן בתמונות. לדוגמה, מחקר שנערך לאחרונה ב- רשת JAMA פתוחה מצא כי תמונות של רופאים שנוצרו על ידי בינה מלאכותית הציגו באופן גורף רופאים גברים לבנים – 82% מהתמונות של רופאים שנוצרו על ידי בינה מלאכותית היו של אנשים לבנים ו-93% היו של גברים., הרבה מעל האחוזים בפועל בקרב רופאים. החוקרים הזהירו, “הטיה זו עלולה לחזק סטריאוטיפים ולפגוע ביוזמות [לקידום גיוון, שוויון והכללה] בתחום הבריאות”.”, תוך הדגשת תחום קריטי לשיפור medicaleconomics.com. במילים אחרות, אם בינה מלאכותית גנרטיבית “חושבת” שרופא נראה כמו גבר לבן בחלוק מעבדה, היא מתעלמת מהמציאות של כוח עבודה מגוון בתחום הבריאות ועלולה להשפיע בעדינות על תפיסת הציבור לגבי מי כשיר להיות רופא.

ההטיה בתוצאות ה-AI אינה מוגבלת לתמונות — היא יכולה להופיע גם בתוצאות חיפוש ובכלי תמיכה בקבלת החלטות. אם בינה מלאכותית מסתמכת על נתונים המציגים ייצוג חסר של נשים או רופאים מקבוצות מיעוט (או נתונים המוטים על ידי דעות קדומות היסטוריות), היא עשויה, למשל, לצטט לעתים קרובות יותר פרסומים של רופאים גברים או להציע “רופאים מובילים” בעלי דירוג גבוה באופן שמדיר קבוצות מסוימות. כפי שניסחה זאת ד"ר איינסלי מקלין, מנהלת מידע רפואי ובינה מלאכותית:, “דבר חשוב נוסף שיש לזכור הוא ש-AI עלול להיות מוטה... הוא עלול להטות את התשובה לכיוון אוכלוסייה שאולי אינה רלוונטית לאדם ששואל את השאלה.” הטיה יכולה להופיע גם אם בינה מלאכותית נותנת אמון במאגרי נתונים קטנים ופחות מגוונים על פני מאגרי נתונים גדולים וייצוגיים יותר, פשוט משום שהיא “למדה” את המשקל הלא נכון במהלך האימון. ההשפעה של הטיה כזו היא חמורה: היא עלולה להשפיע על הרופאים המומלצים בתגובה לשאילתה (מה שעלול להגביר את אי-השוויון) ואף להשפיע על תמיכה בקבלת החלטות קליניות אם נתונים מסוימים על תוצאות המטופלים מוטים. המאבק בתופעה זו ידרוש מאמצים מודעים – הזנת מודלים של בינה מלאכותית בנתונים מגוונים יותר, בדיקתם לאיתור תוצאות מוטות, ושיתוף רופאים מרקעים שונים בתהליך הפיתוח. כפי שציינו פרשנים ב JAMA המחקר ציין כי הפחתת ההטיה היא באחריות כל בעלי העניין ויידרשו מאמצים מתואמים ומתמשכים.

חשיבותה של זהות דיגיטלית מאומתת בתחום הבריאות

הזדמנות מבטיחה להתמודד עם ייצוג שגוי ולשפר את הדיוק היא השקעה ב זהות דיגיטלית מאומתת בתחום הבריאות. במילים פשוטות, משמעות הדבר היא יצירת אישורים דיגיטליים מהימנים לרופאים – דרך עבור מערכות בינה מלאכותית (והפלטפורמות המשתמשות בהן) לאשר שד"ר ג'יין דו היא אכן קרדיולוגית מוסמכת בבית החולים XYZ, עם עובדות ספציפיות מאומתות המצורפות לפרופיל שלה. כיום, רוב הנתונים ש-AI משתמשת בהם לגבי רופאים מגיעים ממקורות לא מאומתים. לעומת זאת, מערכת זהות מאומתת תתחבר למאגרי מידע סמכותיים: רשומות של בתי ספר לרפואה ורישיונות, מערכות הסמכה של בתי חולים, פרופילים מקצועיים שהרופאים עצמם מנהלים וכו'.

מנהיגים בתחום הבריאות מתחילים להכיר בצורך זה. לדוגמה, ממשלת ארצות הברית דנה בהקמת מדריך ספקים ארצי לשמש כמקור אמין יחיד למידע על מקומות העבודה של רופאים ועל כישוריהם. מדריך כזה יכול לסייע בפתרון בעיות של מידע סותר או מיושן ברשת. כמו כן, חברות טכנולוגיה עובדות על פיתוח אמצעי אימות זהות מאובטח; לחברת CLEAR, הידועה בבדיקות הביטחוניות שהיא מבצעת בשדות תעופה, יש מחלקה בתחום הבריאות המשתמשת בזהות דיגיטלית מאובטחת כדי לייעל את תהליך קבלת החולים. זהות דיגיטלית מאובטחת יכולה לשפר את האמון ולהפחית את הניירת המיותרת במערכת הבריאות – דמיינו הרחבת אמון זה לפלטפורמות בינה מלאכותית על ידי מתן גישה אמינה לנתוני רופאים מאומתים. בפועל, מנוע חיפוש מבוסס בינה מלאכותית יכול להשוות את תשובתו עם המדריך הרשמי: אם מטופל שואל “האם ד”ר דו מקבל מטופלים חדשים?", הבינה המלאכותית תשתמש במקורות מאומתים במקום בדף אינטרנט ישן או באתר ביקורות של צד שלישי.

זהויות דיגיטליות מאומתות גם יעניקו כוח לרופאים. רופאים יוכלו “לתבוע” או לנהל את הפרופילים המקצועיים שלהם בפלטפורמות AI, בדומה לאופן שבו ניתן לתבוע רישום עסקי ב-Google. כך, כאשר מישהו ישאל את ה-AI אודות אותו רופא, התשובה תתבסס על מידע שהרופא אימת. לא רק שזה יפחית את מספר הטעויות, אלא גם יאפשר לרופאים להדגיש את מה שהם רואים כחשוב ביותר (תחומי ההתמחות שלהם, השפות שהם דוברים, תחומי המחקר שלהם וכו'), ובכך להאניש את הנתונים שה-AI מציג. כמובן, הקמת מערכת אימות איתנה אינה משימה קלה – היא דורשת שיתוף פעולה בין בתי חולים, מועצות מקצועיות, חברות טכנולוגיה ואולי גם סוכנויות ממשלתיות. אך היתרון יהיה שיפור משמעותי ב חיפוש באמצעות בינה מלאכותית ודיוק נתוני רופאים, מה שמוביל לפחות טעויות מסוכנות.

חיפוש AI ודיוק נתוני רופאים

חיפוש מבוסס בינה מלאכותית מבטיח לספק תשובות ישירות לשאלות המשתמשים, דבר שימושי עבור מטופלים המחפשים רופאים או מידע על בעיות בריאותיות. עם זאת, נוחות זו מלווה באתגר של דיוק נתוני רופאים. בניגוד לחיפוש מסורתי שבו ניתן לראות רשימה של אתרי אינטרנט (שניתן להעריך את אמינותם באופן פרטני), חיפוש מבוסס בינה מלאכותית עשוי לסנתז את כל המידע לתשובה אחת מלוטשת. אם תשובה זו כוללת פרטים על רופא, כל טעות בנתונים הבסיסיים עלולה להיות מוגדלת, מכיוון שהבינה המלאכותית מציגה אותה בביטחון וללא מקורות, אלא אם כן מתבקשת לעשות כן. כבר ראינו מקרים בולטים של צ'אטבוטים מבוססי בינה מלאכותית המספקים מידע רפואי שנשמע סמכותי אך אינו נכון reuters.com. באופן דומה, בינה מלאכותית עלולה לטעון טענות שגויות לגבי כישוריו או ניסיונו המקצועי של רופא, באופן שקשה לאדם מן השורה לאמת. לדוגמה, חקירה גילתה כי צ'אט בוט מבוסס בינה מלאכותית, כאשר התבקש לתת ייעוץ רפואי, טען בכזב שהוא רופא אמיתי ואף סיפק מספר רישיון תקף של רופא מקליפורניה כדי להישמע משכנע. statnews.com. היא יצרה דמות עם אישורים שלא היו שלה – סימן מדאיג לכך שקל מאוד ל-AI להציג עובדות כוזבות כאשר היא מקבלת הוראה לכך או כאשר נתוני האימון מבולבלים.

לכן, יש חשיבות מכרעת להבטיח את הדיוק בתוצאות החיפוש של ה-AI אודות רופאים. מטופלים צריכים להיות מסוגלים לסמוך על כך ש“ד”ר סמית הוא רופא ילדים מוסמך בלוס אנג'לס" הוא מידע נכון אם ה-AI אומר להם כך. כדי להשיג זאת, ניתן לנקוט בגישות שונות: ראשית, כפי שהוזכר, שילוב מקורות מידע מאומתים, כך שה-AI לא ינחש או ייקח מידע מקטעי אינטרנט אקראיים. שנית, פלטפורמות בינה מלאכותית יכולות לספק ציטוטים או קישורים לכל טענה עובדתית על אדם (למשל, קישור למועצת הרפואה הממלכתית או לפרופיל הרשמי של הרופא) – כמה כלי חיפוש גנראטיביים מתחילים לעשות זאת עבור מידע בריאותי. שלישית, ביקורות ועדכונים שוטפים הם המפתח. נתוני הרופאים עשויים להשתנות (רישיונות פוקעים, רופאים עוברים דירה או מחליפים התמחויות), ולכן יש לעדכן את מודלי ה-AI ואת מאגרי הידע שלהם בקצב קבוע או בזמן אמת באמצעות שאילתות למסד הנתונים. ארגוני בריאות יכולים לסייע בכך שיספקו למפתחי ה-AI ספריות מעודכנות ויפקחו על אי-דיוקים. לדוגמה, בתי חולים יכולים לבדוק באופן שגרתי כיצד מוצגים הרופאים שלהם בבוטים פופולריים של שאלות ותשובות רפואיות או בתוצאות מנועי חיפוש, ולסמן כל טעות. מעגל משוב שבו רופאים ומוסדות יכולים לתקן את תוצאות ה-AI ישפר מאוד את אמינות הנתונים.

הצד השני של הדיוק הוא ההזדמנות שהוא יוצר: כאשר פלטפורמות AI מציגות מידע נכון באופן אמין, הן הופכות לכלי רב עוצמה לחיבור בין מטופלים לטיפול הנכון. דמיינו שאתם מבקשים מ-AI: “מצא לי נוירוכירורג דו-לשוני באזור שלי שיש לו ניסיון בגידולים בעמוד השדרה”, ומקבלים תשובה מדויקת ועדכנית מבחינה עובדתית, מכיוון של-AI יש גישה לפרופילים מאומתים. רמת שירות כזו יכולה לחסוך זמן רב למטופלים ולרופאים המפנים. אך היא פועלת רק אם הנתונים נכונים. דיוק בונה אמון – אמון במידע, אמון בפלטפורמה, ובסופו של דבר אמון ברופא המוצג בצורה מדויקת.

הזדמנויות לשפר את ייצוג הרופאים בתחום הבינה המלאכותית

למרות הסיכונים, ישנן הזדמנויות משמעותיות לנצל את ה-AI בדרכים ש... תועלת רופאים ומטופלים. אחת האפשרויות היא להשתמש ב-AI כדי להגביר את המומחיות של הרופאים. לדוגמה, בינה מלאכותית יכולה לסייע בניסוח הסברים מובנים למחקריו של רופא או בתרגום הביוגרפיה המורכבת של רופא לשפה ידידותית למטופלים, ובכך לשפר את האופן שבו רופאים מוצגים לציבור. הדבר יכול לסייע בהדגשת הכישורים הייחודיים של כל רופא ובהאנשת הישגיו. בנוסף, בינה מלאכותית עשויה לסייע בהתאמת מטופלים לרופאים. על ידי ניתוח צרכי המטופל ופרופיל הרופא, מערכת בינה מלאכותית יכולה להמליץ על התאמה טובה (למשל, רופא שמדבר בשפת המטופל או בעל ניסיון רב בטיפול במצב רפואי מסוים), ובכך לשפר את שביעות רצון המטופלים ואת התוצאות. התאמה מסוג זה אפשרית רק כאשר נתוני הרופאים מדויקים ועשירים – תמריץ נוסף להקפיד על אימות נכון.

AI יכול גם להפחית את העומס על הרופאים על ידי טיפול במשימות ובשאלות שגרתיות. בכך, הוא משפר בעקיפין את ייצוג הרופא בכך שהוא מאפשר לנוכחות הדיגיטלית שלו להיות יותר תגובתית. קחו לדוגמה תרחיש שבו צ'אט בוט מבוסס בינה מלאכותית באתר האינטרנט של מרפאה עונה על שאלות נפוצות (“איזה ביטוח ד”ר לי מקבל?“ או ”האם ד“ר לי מקבל מטופלים חדשים?”) בצורה מדויקת ומיידית. זה לא רק חוסך זמן לצוות, אלא גם מאפשר למטופלים לקבל תשובות מהירות ממקור שנמצא בשליטת המרפאה של ד"ר לי. הרופא "מיוצג" למעשה על ידי העוזר הממוחשב הזה, מה שמדגיש את החשיבות הרבה של דיוק המידע. כאשר הדבר נעשה כהלכה, הרופא מיוצג כ קשוב, מועיל ואמין, גם כאשר הם אינם מחוברים באופן אישי – הבינה המלאכותית הופכת להארכה של העיסוק שלהם.

יתר על כן, עליית ה-AI בתחום הבריאות מספקת לרופאים הזדמנות לעצב באופן פעיל את טביעת הרגל הדיגיטלית שלהם. ארגוני בריאות רבים בעלי חזון עתידני מערבים כעת רופאים בפיתוח כלי AI – החל מהכשרת מאגרי נתונים ועד לעיצוב אלגוריתמים – כדי להבטיח את נקודת המבט של הרופא נכלל בתהליך. בכך, הם מגדילים את הסיכוי שה-AI יכבד את המציאות הקלינית ואת הסטנדרטים המקצועיים. רופאים המשתתפים בתהליך זה יכולים לסייע בקביעת קווים מנחים לאופן שבו מקצועם מוצג בסביבות וירטואליות. לדוגמה, רופאים יכולים לדרוש שכל ייעוץ בריאותי של בינה מלאכותית יכלול תמיד הסתייגות לפיה יש “להתייעץ עם רופא מורשה” ואולי אף להפנות את המשתמשים למאגרי מידע מאומתים של ספקים מקומיים. בדרך זו, הבינה המלאכותית אינה מחליפה את הקשר בין הרופא למטופל, אלא מכוונת את האנשים לקראתו.

לבסוף, המומנטום לטיפול בחסרונות ה-AI הולך וגובר. העובדה שהטיה ומידע מוטעה נדונים כעת באופן כה גלוי היא התפתחות חיובית – היא מעידה על כך שהגורמים המעורבים מחפשים באופן פעיל פתרונות. כפי שנכתב באחת ההערות על הטיה ב-AI ברפואה, לשאלה מי אחראי לתיקון בעיות אלה יש תשובה “פשוטה ביותר אך מורכבת עד כאב”: “זה כולנו.” אחריות קולקטיבית זו פותחת את הדלת לשיתוף פעולה בין חברות טכנולוגיה, מוסדות בריאות ורגולטורים, כדי להבטיח שה-AI יתפתח באופן המכבד ומציג בצורה מדויקת את אנשי המקצוע בתחום הבריאות.

נקודות מבט של מומחים

“ה-AI איפשר לי, כרופא, להיות נוכח במלוא מובן המילה עבור המטופלים שלי.”רופא אנונימי שתרם למאמר. (זה מדגיש כיצד בינה מלאכותית יכולה להסיר הסחות דעת, ולאפשר לרופאים להתמקד בטיפול בחולים, מה שמציע הזדמנות כאשר משתמשים בבינה מלאכותית בצורה נכונה.)

“תתקנו את מערכת הבריאות, אבל לא על ידי פגיעה קבועה בפרטיות שלי. בינה מלאכותית זקוקה למנגנוני בקרה כדי להבטיח אמון.”רופא אנונימי שתרם למאמר. (דבר זה מדגיש את עמדתו של הרופא בנוגע לשמירה על אמון ופרטיות בעת יישום בינה מלאכותית – תזכורת לכך שאימות זהויות ואבטחת נתונים הולכים יד ביד.)

(הציטוטים שלעיל הם של אנשי מקצוע בתחום הבריאות המתייחסים להשפעת הבינה המלאכותית. הם מחזקים את החשיבות של השימוש בבינה מלאכותית ככלי לתמיכה ברופאים, ולא ככלי המציג אותם באור שגוי.)

פרופילים רב-שכבתיים ממפים את המומחיות הקלינית והתרומות

“ככל שכלי חיפוש מבוססי בינה מלאכותית הופכים למרכזיים יותר בתחום הבריאות, זהות הרופאים תוצג ככל הנראה באמצעות פרופיל רב-שכבתי ועשיר בנתונים, ולא באמצעות רשימות פשוטות כפי שאנו רואים כיום. במקום רק שם, התמחות ומיקום, מערכות אלה עשויות לשלב מקורות נתונים מאומתים מרובים, רישומי רישיונות ממדיניים, הסמכות מועצה, קבצי אימות, השתתפות בניסויים קליניים, דפוסי הפניות ואפילו תחומי התמחות פרוצדורליים. במובנים רבים, מנועי חיפוש מבוססי בינה מלאכותית יתפקדו כמו גרפים ידע המתעדכנים באופן רציף, שימפו את אופן העבודה של הרופאים, את האוכלוסיות שהם משרתים ואת התחומים שבהם הם תורמים מבחינה קלינית או אקדמית.

ההזדמנות כאן היא משמעותית. בינה מלאכותית יכולה לסייע למטופלים ולמערכות בריאות למצוא רופאים על סמך מאפיינים קליניים משמעותיים, כגון ניסיון עם מצב רפואי ספציפי, מומחיות בביצוע פרוצדורות מסוימות או תוצאות מוכחות בקבוצות משנה מסוימות של מטופלים, במקום מסנני חיפוש כלליים. היא עשויה גם לסייע בצמצום חוסר הסימטריה במידע על ידי חשיפת נתונים שקופים יותר על הכשרתו של הרופא, תחומי התמחותו ותרומתו המקצועית.

אך הסיכונים חשובים לא פחות. אם מודלים של בינה מלאכותית מסתמכים על מקורות נתונים לא שלמים, מיושנים או מוטים, רופאים עלולים להיות מוצגים באור שגוי, במיוחד אלה המטפלים באוכלוסיות מורכבות או מקופחות. קיים גם סכנה שמידע מסחרי או לא מאומת עלול לעוות את אופן דירוג או הצגת המומחיות. יהיה חיוני להבטיח הוגנות, דיוק ויכולת של רופאים לתקן או להציג את המידע שלהם בהקשר הנכון. כאשר הוא מנוהל כראוי, חיפוש מבוסס בינה מלאכותית יכול לשפר את האמון, הדיוק והתאמת המטופלים לרופאים. ללא פיקוח הדוק, הוא עלול להגביר את ההטיה או ליצור אי-שוויון חדש באופן שבו נתפסים הרופאים.”

וישנאווי גדבה

וישנאווי גדבה, מהנדס נתונים – בריאות ו-AI, CVS Health

 

זהות דיגיטלית מאומתת מפחיתה את כמות המידע השגוי בתחום הבריאות

“ככל שמנועי חיפוש מבוססי בינה מלאכותית ומודלים לשוניים גדולים הופכים לאמצעי העיקרי שבו אנשים מחפשים מידע רפואי, זהות הרופאים תתעצב יותר על ידי אותות דיגיטליים מאשר על ידי מדריכים מסורתיים. מה שמתפתח כעת הוא מעבר לזהות דיגיטלית מאומתת, שבה כישוריו, תחומי התמחותו, שיוכיו ואפילו המוניטין שלו בקרב המטופלים של רופא מיוצגים באמצעות מקורות מידע סמכותיים ולא באמצעות תוכן שנאסף או לא אומת. זוהי מגמה חיובית, מכיוון שהיא מצמצמת את כמות המידע השגוי ומבטיחה שמערכות הבינה המלאכותית יציגו פרופילים מדויקים ואמינים של רופאים.

ההזדמנות היא ש-AI יכולה להפוך את גילוי שירותי הבריאות לנגיש יותר. אם נתוני הזהות מנוהלים כראוי — באמצעות מאגרי רישיונות מאומתים, מדריכי בתי חולים, רישומי NPI ואימות זהות חזק — רופאים יכולים ליהנות מחשיפה מוגברת, ייצוג מדויק יותר והגנה חזקה יותר מפני התחזות או רישומים מזויפים. כאשר נעשה נכון, AI יכול לעזור למטופלים למצוא את המומחים הנכונים מהר יותר ולאפשר לרופאים להדגיש את המומחיות שלהם מבלי לנהל עשרות פרופילים מקוונים מקוטעים.

הסיכון הגדול ביותר הוא דווקא ההפך: צינורות נתונים המנוהלים בצורה לקויה, המובילים לזהויות רופאים מיושנות, לא שלמות או לא מדויקות. אם מערכות בינה מלאכותית מסתמכות על מקורות לא מאומתים, רופאים עלולים להיות מיוצגים באופן שגוי או להתבלבל עם אחרים בעלי שמות או אישורים דומים. קיים גם איום גובר של שימוש לרעה בזהות – ספקים רמאים המנסים להיראות לגיטימיים בתוצאות שנוצרו על ידי בינה מלאכותית – מה שהופך את אימות הזהות הקפדני והניטור המתמשך לחיוניים.

בסופו של דבר, ייצוג זהות הרופא באופן אחראי בחיפוש מבוסס בינה מלאכותית דורש שלושה דברים: (1) מקורות נתונים סמכותיים וניתנים לאימות, (2) ממשל ברור לגבי אופן קליטת המידע על הרופאים ועדכונו, ו-(3) אמצעי הגנה המונעים זיוף, נתונים מיושנים או הטיות אלגוריתמיות המשפיעים על האופן שבו נתפסים אנשי המקצוע הרפואיים. כאשר אמצעי בקרה אלה קיימים, חיפוש מבוסס בינה מלאכותית יכול לשפר באופן משמעותי את אמון המטופלים ואת נראות הרופאים, תוך צמצום המידע המוטעה בתחום הבריאות.”

אדית פורסטל

אדית פורסטל, מייסד ומומחה לאבטחת סייבר, אבטחת יערות

 

מסקנה: שיטות עבודה מומלצות ליישום בינה מלאכותית אמינה בתחום הבריאות

ככל שה-AI הופך לחלק בלתי נפרד ממערכת הבריאות, יהיה חיוני לשמור על הדיוק והשלמות של האופן שבו רופאים מיוצגים. ה- נקודות מרכזיות ברורים: בינה מלאכותית בלתי מבוקרת עלולה לגרום להטיה ולטעויות, אך בינה מלאכותית מונחית יכולה לשפר מאוד את חוויות הטיפול הרפואי. לסיכום ולצורך התקדמות, להלן כמה נקודות: שיטות עבודה מומלצות עבור ארגוני בריאות ופלטפורמות בינה מלאכותית מטרה להשיג את התוצאה הנכונה:

  • שלב מקורות נתונים מאומתים: מפתחי בינה מלאכותית צריכים לשתף פעולה עם גופי בריאות כדי להזין למודלים מידע מעודכן ומאומת (כגון מאגרי רישיונות ממלכתיים, מדריכי בתי חולים ופרופילים מקצועיים) כדי למזער אי-דיוקים.

  • הקמת מערכת לאימות זהות דיגיטלית: ארגוני בריאות וחברות טכנולוגיה יכולים לשתף פעולה כדי ליצור מערכות זהות דיגיטלית מאובטחות עבור רופאים. זה יכול לכלול תג אימות או פרופיל מאושר שמערכות בינה מלאכותית מזהות כאמיתיים, מה שמבטיח שכל האישורים או השייכויות המוצגים הם לגיטימיים.

  • ביקורת קבועה על הטיות ודיוק: מוסדות בריאות וספקי בינה מלאכותית חייבים לבדוק באופן רציף את תוצאות הבינה המלאכותית כדי לאתר הטיות או טעויות. זה כולל בדיקה של האופן שבו הבינה המלאכותית עונה על שאלות בנוגע לרופאים או מציגה תמונות של רופאים. כאשר מתגלים בעיות, יש לאמן מחדש את המודלים או להתאים את ההנחיות כדי לתקן ייצוגים מוטים.

  • לכלול רופאים בפיתוח בינה מלאכותית: רופאים צריכים להיות מעורבים בתהליך התכנון של כלים חדשים בתחום הבריאות המבוססים על בינה מלאכותית. תובנותיהם יכולות לסייע בהגדרת המידע החיוני שיש להשיג. בנוסף, רופאים יכולים לסייע בגיבוש הקווים המנחים האתיים (למשל, לדרוש מהבינה המלאכותית להבחין בבירור בין מידע כללי לבין ייעוץ רפואי מותאם אישית).

  • הקפדה על שקיפות ופיקוח: פלטפורמות בינה מלאכותית צריכות לחשוף את מקור המידע הקשור לרופאים ולספק מנגנונים לתיקון. אם בינה מלאכותית מציגה עובדה אודות רופא, צריכה להיות דרך קלה לרופא או למוסד הרפואי שלו לאמת או לערער עליה. כמו כן, כל עצה המבוססת על בינה מלאכותית צריכה לעודד מעקב על ידי איש מקצוע מוסמך, תוך שמירה על עליונות הקשר בין הרופא למטופל.

על ידי יישום שיטות אלה, ארגוני בריאות יכולים לנצל את הבינה המלאכותית כבעלת ברית חזקה – כזו שמגדילה את כמות המידע המדויק, מפחיתה את העומס השגרתי, ובסופו של דבר מחזק את האמון בין מטופלים לספקים. ל-AI יש פוטנציאל לשפר את האופן שבו אנו מוצאים מומחים רפואיים ומתקשרים איתם, אך מימוש פוטנציאל זה דורש גישה מתחשבת וממוקדת באדם. רופאים הם מרפאים, מטפלים ומומחים; בעולם הדיגיטלי שלנו, שבו הזהות והתרומה שלהם מיוצגות עם הניואנסים והדיוק המגיעים להם. על ידי שמירה על ערנות לגבי סיכונים וגישה פרואקטיבית לגבי הזדמנויות, אנו יכולים להבטיח שהעתיד של שירותי הבריאות המונע על ידי AI יישאר חדשני ו מכבד את אלה שמספקים טיפול.

 

מאמרים קשורים

נבדק על ידי Pouyan Golshani, MD, Interventional Radiologist — נובמבר 26, 2025