מידעהצהרת נגישות
תצוגת צבעים באתר(* פועל בדפדפנים מתקדמים מסוג chrome ו- firefox)תצוגה רגילהמותאם לעיוורי צבעיםמותאם לכבדי ראייהא+ 100%א-סגירה

טרשת נפוצה

כמוניטרשת נפוצהמדריכיםאיך תחפשו מידע רפואי באופן מבוקר בעידן הבינה המלאכותית?

איך תחפשו מידע רפואי באופן מבוקר בעידן הבינה המלאכותית?

לבדוק מי עומד מאחורי המידע, להצליב מקורות ולברר פרטים עם הרופא המטפל – אתרי צ'אט בוט מבוססי AI מספקים מידע רפואי שעשוי להטעות. איך תוכלו להתמודד עם התופעה?


(צילום: shutterstock)
(צילום: shutterstock)

בשנים האחרונות נכנס העולם לעידן הבינה המלאכותית (Artificial Intelligence ובקיצור AI) – ועם הזמן נפתחים גובר השימוש בצ'אט בוטים מבוססי בינה מלאכותית לחיפוש מידע על מחלות.

 

אולם בד בבד, כל עוד תחום הבינה המלאכותית בחיתוליו, מחקרים רבים מתריעים לאחרונה מפני חיפוש לא מבוקר של מידע רפואי בפלטפורמות מבוססות בינה מלאכותית ומזהירים מפני מידע לא מבוסס ולעתים אף לא אמין שעשוי לעורר מפח נפש ובמקרים קיצוניים אף לחולל נזקים.

 

מה אפשר לעשות כדי לצרוך מידע רפואי בכלי הבינה המלאכותית בצורה יותר מבוקרת? וממה חשוב להיזהר? על כך בכתבה הבאה.

 

 

חיפוש מידע בכלים מבוססי בינה מלאכותית

 

הבינה המלאכותית עושה שימוש בעקרונות של 'למידת מכונה' (machine learning) ובמאגרי 'ביג דטא' שכוללים נתוני עתק שנוצרו עם השנים על רקע השימוש בתיקים ובתיעוד רפואי ממוחשב, במטרה לפתח אלגוריתמים חישוביים מתוחכמים אוטונומיים לקידום המצב הבריאותי.

 

ברפואה מסייעת כיום הבינה המלאכותית במגוון הולך וגדל של תחומים, וחברות סטארטאפ רבות, חלקן ישראליות, פיתחו בשנים האחרונות מודלים אלגוריתמיים מבוססי בינה מלאכותית שמפיקים יכולות ניבוי ומשפרים תהליכים רפואיים. בין השימושים של הבינה המלאכותית ברפואה כיום ניתן למנות סיוע בתהליכי קבלת החלטות, אבחון מחלות, פענוח בדיקות הדמיה, ניטור מטופלים, קידום רפואה מותאמת אישית ופיתוח תרופות.

 

בשנים האחרונות פותחו תוכנות צ'אט בוט מבוססות בינה מלאכותית שמציעות שירותי חיפוש וכריית תוכן ללא תשלום בהתבסס על אלגוריתמים חכמים, ולמעשה מספקות מידע רפואי באופן אוטומטי בהתאם לשאלות שמציגים הגולשים, בהם תוכנות חיפוש חינמיות כמוChatGPT  הפופולארי, Bard ו-Claude.

 

חשש מרכזי בתחום הבינה המלאכותית, שכבר אינו נחשב למופרך וממנו מתריעים לאחרונה בהדרגה, נעוץ ביכולתו התיאורטית של כלי זה להתעלות על יכולות החשיבה של המוח האנושי ובעתיד אף לסכן את קיום האנושות.

 

תוכנות צ'ט בוט – מספקות מידע רפואי אוטומטי (צילום: shutterstock)

 

עוד על הבינה המלאכותית בשירות הרפואה

 

בעיות מרכזיות בשימוש בבינה מלאכותית לחיפוש מידע רפואי

 

לצד המעלות הרבות בשירותי בינה מלאכותית, המציעים בחינם ובלחיצת כפתור מהירה מענה לכל שאלה שניתן להעלות על הדעת בהתבסס על מאגרי מידע נרחבים ובשיטתה המבוססת ברמה העקרונית על "חוכמת המונים", הבינה המלאכותית גם מציבה אתגרים רבים בכל הקשור לחיפוש מידע רפואי.

 

בדומה לאינטרנט כולו, שבעבר הלא רחוק הפיח תקוות להנגשת מידע רפואי לקהל הרחב, ובמהרה הפך גם לפלטפורמה רוויה גם באתרים שמוסרים מידע חלקי ושגוי, מחקרים חדשים מציגים גם את הבעייתיות בהסתמכות על מידע רפואי שמתקבל לאחרונה בפלטפורמות הבינה המלאכותית.

 

  • אפליה מובנית

 

אחד החששות הוא משימוש באלגוריתמים שטמונה בהם אפליה מובנית כלפי אוכלוסיות מסוימות. מחקרים לאחרונה כבר מציגים ראיות כי אלגוריתמים שמשמשים ברשתות חברתיות שונות כדוגמת פייסבוק עשויים לייצר אפליה מובנית כלפי אוכלוסיות מוחלשות, לרבות אנשים ממעמד סוציואקונומי נמוך, מוצא אפרו-אמריקאי וכן נשים – במידע שמעובד ומוצג לגולשים ברשתות אלה. גם בתוכנות בינה מלאכותית מופיעים לאחרונה יותר דיווחים על אפליה מהסוג הזה. בדצמבר 2019 כבר דווח כתב העת Science על אלגוריתם בשימוש בבתי חולים בארה"ב שאסף מידע על חולים כרוניים במטרה להציע שיטות מועילות למעקב טיפולי, אשר אותר בו מנגנון מפלה שנותן למטופלים לבנים בריאים את אותו הציון על מצב בריאותם כמו למטופלים אפרו אמריקאים עם מחלה כרונית וממצאים חריגים בבדיקות מעבדה. כך, מטופל אפרו אמריקאי במצב רפואי ירוד יותר עשוי להיתפס כ"בריא" ולקבל המלצות טיפוליות פחות אינטנסיביות שאינן תואמות את מצבו בפועל.

 

באופן דומה, במאמר שפורסם באוגוסט 2020 בכתב העת New England Journal of Medicine תועדו מספר "אלגוריתמים מפלים" שממעיטים בסיכון של אוכלוסיות אפרו-אמריקאים לפתח אבנים בכליות. במאמר תועד אלגוריתם נוסף שמעריך את הסיכון הטמון בלידה טבעית לנשים שעברו בעבר לידה בניתוח קיסרי – אשר נמצא בו כי בקביעת דרגת הסיכון שוקללו גם נתוני מוצא ומצב משפחתי – באופן שעשוי להוביל למתן המלצות מפלות כלפי נשים ממוצא מסוים.

 

באוקטובר 2023 דיווחו חוקרים אמריקאים מאוניברסיטת סטאנפורד בכתב העת Digital Medicine כי הצ'אט בוטים ChatGPT, Claude ו-Bard מספקים תשובות המבוססות על תפיסות גזעניות לשאלות רפואיות. נמצא במחקר כי התוכנות כשלו במתן תשובות לשאלות העוסקות בתחומים הקשורים לתפקודי כליות ועובי העור, ובחלק מהמקרים אימצו תפיסות שגויות על הבדלים פיזיולוגיים וביולוגיים בין לבנים לשחורים שלקח לחוקרים שנים כדי להוציאם ממוסדות רפואיים. תפיסות מסוג זה גרמו לעבר לרופאים לדרג כאבים עליהם דיווחו שחורים בעוצמות פחותות מכאבים של לבנים, לא לאבחן אצלם כראוי מצבים רפואיים ולהציע להם פחות טיפולים חיוניים להקלה על תסמינים.

 

  • אמינות לקויה

 

בעיה נוספת וחמורה יותר של אמינות לקויה מתחדדת לאחרונה בפלטפורמות חינמיות של צ'אט בוט מבוססות בינה מלאכותית המבצעות איסוף תוכן שיח ופונות לקהל הרחב, וזאת גם  לצד חששות בכלים אלה מפני הונאה והפרת זכויות יוצרים.

 

בדצמבר 2023 דיווחו חוקרים מתחום הרוקחות באוניברסיטת לונג איילנד בארה"ב בכנס מדעי בקליפורניה על ממצאי מחקר שהצביע על כך שהצ'אט בוט הפופולארי ChatGPT מספק מידע רפואי שגוי על תרופות. בבדיקה נמצא כי רק כרבע מהתשובות שסיפקה התוכנה לשאלות בנושאי תרופות, עשרה מתוך 39 תשובות – הוגדרו כמשביעות רצון על ידי מומחים מקצועיים חיצוניים. באשר ל-29 התשובות האחרות, הרי שאלו לא השיבו ישירות לשאלה, או שסיפקו תשובות לא מדויקות או לא מלאות. כך, לדוגמא, באחד המקרים שבהם התבקשה התוכנה להתייחס להשפעות של שילוב של התרופה החדשה לקורונה 'פקסלוביד' עם התרופה 'וראפאמיל' ממשפחת 'חוסמי תעלות הסידן' המשמשת להורדת לחץ דם, הפרעות קצב ותעוקת חזה, ניתנה תשובה כי אין השפעות בעייתיות בין התרופות, בעוד שבפועל יש להן פוטנציאל להשפעה משולבת שעשויה להוביל לירידה תלולה מדי בערכי לחץ הדם.

 

באוגוסט 2023 דיווחו חוקרים מגרמניה בכתב העת Neurological Research and Practice כי בטקסטים שייצר ChatGPT על טרשת נפוצה היו דרגות גבוהות לנכונות ורלוונטיות המידע, אם כי זוהו מספר טעויות במידע ששלף הצ'אט בוט, למשל באזכור תרופה שגויה כקו ראשון לטיפול בטרשת נפוצה התקפית-הפוגתית (RRMS) – מה שעשוי להעלות את החשש להשפעות מסחריות על המידע המוצג בפלטפורמה הזו. כמו כן, התקבל בצ'אט בוט מידע שגוי על מינונים של תרופות לטרשת נפוצה ואף המלצות שגויות במעקב אחר המחלה שאינן מהוות חלק מהטיפול המקובל, למשל שימוש בחומר גדליניום במסגרת הדמיות המבוצעות לאיתור מוקדי דלקתיות.

 

  • מידע לא רלוונטי ולא עדכני

 

בתחומי הרפואה והמדע שמתעדכנים כל העת קיים גם החשש מפני הפצת מידע לא עדכני דרך תוכנות הצ'אט בוט מבוססות בינה מלאכותית, מאחר ואלו שואבות את מרבית המידע ממאגרי תוכן שעשויים להיות ישנים ולא רלוונטיים. כך, אחת המגרעות של הצ'אט בוטים היא בכך שאלה אינם מספקים את המקורות עליהם הסתמכו במתן התשובות. במידה והצ'אט בוט נשאל ישירות מה המקורות – המידע שמתקבל כולל ברוב המקרים מקורות ממוצאים או לא רלוונטיים. במאי 2023 דיווחו חוקרים אמריקאים בכתב העת Cureus כי מידע רפואי-מקצועי שהתקבל דרך ChatGPT כלל בין היתר נתונים לא מדויקים ואף מפוברקים של מראי מקום מדעיים (רפרנסים) עליהם מתבססים טיעונים רפואיים שונים שנכתבים בצ'אט בוט. במחקר נוסף שפורסם באוקטובר 2023 בכתב העת Urology דיווחו חוקרים אמריקאים מאוניברסיטת פלורידה כי מעבר לכך שב-40% מהשאלות בתחום האורולוגיה סיפק הצ'אט בוט מידע לא נכון, הדבר נעשה ב'ביטחון עצמי' כאשר רק ב-62% מהתשובות הוכוונו הגולשים להתייעץ עם איש צוות רפואי על הנושא הנשאל.

 

מחקר אמריקאי שפורסם בינואר 2024 בכתב העת JAMA Pediatrics מצא כי לאחר שהוכנס ל-ChatGPT מידע על אבחון מחלות ילדים הלקוח מכתב העת New England Journal of Medicine שנחשב למוביל בעולם הרפואה, הצ'אט בוט נתבקש לאבחן מחלות ילדים על סמך תסמינים אופייניים ודייק ב-39% מהאבחנות בלבד, באופן שאולי מצביע על האפשרות להשתמש בו בעתיד ככלי עזר נוסף בתהליך האבחון, אך לא כאמצעי שיכול להחליף את פעילות הרופאים, בשלב הנוכחי לפחות.

 

גם תוכנות מבוססות בינה מלאכותית שפותחו בשנים האחרונות והוכנסו לשימוש במערכות בריאות לאחר מחקרים שמנסים לנטרל את הסיכון לטעויות – עשויים לשגות בפענוח ממצאים. בדצמבר 2021 כבר התריעו חוקרים מסין וארה"ב בכתב העת Nature Communications מפני האפשרות שמודלים מבוססי בינה מלאכותית בתחומי אבחון מחלות עשויים להפוך ליעד למתקפות סייבר, ויושפעו לרעה מהחדרת "תמונות מזויפות" למאגרים עליהם מתבססות התוכנות, באופן שעשוי להוביל לאבחונים שגויים.

 

חששות כלליים מאמינות המידע שמתקבל באמצעי הבינה המלאכותית הוביל כבר ביולי 2023 את ועדת הסחר הפדרלית בארה"ב להצהיר על פתיחת חקירה גלויה על אמינות המידע המופץ ב-ChatGPT לצורך הגנה על צרכני המידע.

 

לצד עדויות קשות אלה, חשוב לציין כי פלטפורמות מסוימות מבוססות בינה מלאכותית הוכיחו בשנים האחרונות גם תועלת בשיפור הבטיחות של טיפולים רפואיים, בין השאר בשיפור איסוף מידע על תופעות לוואי של תרופות וסיבוכים בטיפולים שונים.
 

עצות לחיפוש מידע רפואי מבוקר בעידן הבינה מלאכותית

 

בעידן הנוכחי של ריבוי מקורות מידע, עם המשך הפיתוח הצפוי של כלי הבינה המלאכותית והנגשתם לציבור, באופן שהופך את מלאכת החיפוש של מידע רפואי לנגישה וקלה יותר במובנים רבים, חשוב לאמץ שורה של כללים שיסייעו בקבלת מידע אמין:

 

  • בחיפוש מידע רפואי מומלץ להצליב מקורות ולבדוק את המידע שהתקבל במספר אתרים נוספים, כדי לחזק את אמינותו. מומלץ לנקוט משנה זהירות ולאמת בדרך זו בעיקר מידע שנאסף מרשתת חברתיות ופלטפורמות הצ'אט בוט מבוססות בינה מלאכותית. לדברי שמוליק בן יעקב, יו"ר האגודה לזכויות החולה, "אני אישית מאמין בבדיקת המידע שמופיע באתרים רשמיים, למשל אתרי משרד הבריאות, קופות חולים ובתי חולים, ובחו"ל מאתרים כמו ארגון הבריאות העולמי (WHO) והמרכז האמריקאי לבקרת מחלות (CDC). המידע שמופיע באתרים אלה לרוב נבדק על ידי מומחים ומייצג את התפיסות הרפואיות המקובלות".

 

  • חיפוש מקורות נוספים לאימות המידע חשוב בעיקר בנושאים מעוררי מחלוקת, שבהם יש נטייה לעתים לעירוב דעות אישיות במידע הרפואי שנמסר. בין התחומים מעוררי המחלוקת שבהם מומלץ להקפיד על כך מצוי תחום החיסונים שבו קיימים מתנגדים עקרוניים לחיסונים וכן מתנגדים לחיסונים מסוימים – למשל לחיסונים לקורונה.

 

תחום רגיש נוסף הוא תחום הקנביס הרפואי, שבו לדברי בן יעקב "יש גופים רבים בעלי אינטרסים שעשויים לקדם מידע לא אמין". כך, בתקופת מלחמת "חרבות ברזל" יש אתרים שסיפקו מידע רפואי על האפשרות לתת לנפגעי טראומה קנביס, ומשרד הבריאות פרסם הודעה בה הבהיר כי "שימוש בקנביס לא הוכח כיעיל לטיפול בשלב החריף לאחר טראומה ואף עלול להזיק".

 

תחום בעייתי נוסף הוא תחום הטיפול בתאי לחץ. לאחר שורת פרסומים על המעלות של טיפול בתאי לחץ שלוו במידע שאינו מבוסס דיו. בספטמבר 2020 פרסם משרד הבריאות בישראל אזהרה רשמית מפני תאי לחץ שנפתחו בארץ ללא אישור משרד הבריאות ולטענת המשרד "תוך הטעיית הציבור". באזהרה נקבע כי "קיימים סיכונים בטיחותיים ורפואיים לקבלת טיפול בתא לחץ שמותקן ללא אישור ופיקוח של משרד הבריאות". באוגוסט 2022 שלחו תשעה יושבי ראש של איגודים רפואיים מקצועיים בישראל מכתב חריג בחומרתו למשרד הבריאות, ובו התריעו מפני הפרסומים על תועלות הטיפול בתאי לחץ והבהירו כי "הפרסומים הראשוניים הקיימים עד כה בטכנולוגיה זו, בתחומי תחלואת המוח בילדים ומבוגרים, מעוררי עניין ותקווה ככל שיהיו, אינם מהווים הוכחה מדעית ברמת ראיות מספקת ליעילות הטכנולוגיה בהתוויות אלו". באותה השנה שונו תקנות בריאות העם באופן שמחייב פיקוח של משרד הבריאות על כל תא לחץ שפועל בתנאים הגבוהים מתנאי לחץ האוויר באטמוספרה, וכתוצאה מהשינוי נסגרו תאי לחץ פרטיים רבים, ואחרים פתחו בהליכים משפטיים כנגד משרד הבריאות שעדיין מתנהלים.

 

  • מומלץ שלא להסתמך רק על האתר המופיע בראש החיפוש בגוגל. לדברי בן יעקב, "אם חיפשתם מידע רפואי דרך שאלה לגוגל, האתר הראשון שתקבלו לא בהכרח אומר שהוא נקי מאינטרסים שעשויים להשפיע על התוכן. חשוב לבצע אימות מידע באתרים מבוססים נוספים".

 

  • מומלץ לברר מי עומד מאחורי המידע הרפואי. כדאי לאסוף מידע רפואי מאתרים שמספקים קישורים למקורות המידע, וכך ניתן לבדוק אם המידע מבוסס על מקורות מדעיים אמינים.

 

  • מומלץ לאסוף מידע רפואי מאתרים שמלווים על ידי מומחים רפואיים שבודקים את אמיתות המידע הכתוב.

 

  • מומלץ לאסוף מידע רפואי מאתרים שמבחינים בין מידע רפואי לבין דעות אישיות של כותבים, בעיקר בנושאים מעוררי מחלוקת שבהם קיימת מחלוקת מדעית.

 

  • מומלץ לפנות עם המידע שנאסף לרופא המטפל כדי לברר גם מולו את מידת אמיתות המידע בהתאם לידע הרפואי המקובל.

 

  • מומלץ לחפש מאמרים מדעיים שתומכים במידע שנאסף, תוך שימוש במאגרי מידע חינמיים לחיפוש מחקרים כדוגמת Pubmed ו-Google Scholar.

 

  • מומלץ לחפש מידע באתרי תוכן מעודכנים שבהם מצוין מתי נכתב התוכן – כדי לוודא שהמידע רלוונטי.

 

  • מומלץ להיות ערים להבדלים בין תוכן מערכתי לתוכן שיווקי. לדברי בן יעקב, "יש בימינו מידע רב שמתפרסם במימון גופים מסחריים, ומסומן כ'תוכן שיווקי', 'בחסות', 'בתמיכה' או 'בשיתוף'. זה בסדר גמור, וגם כתבות מהסוג הזה יכולות להיות באיכות טובה, אך חשוב להיות ערים לכך כדי להתרשם לעומק מהמידע שנאסף ולראות את התמונה בכללותה".

 

הצלבת מקורות. מאפשרת לחזק את אמינות המידע (צילום: shutterstock)

 

דברי סיכום

 

הבינה המלאכותית משנה את חיינו, וגם בתחום הרפואה מביאה עמה בשורות רבות בתחומי האבחון ומתן טיפולים מותאמים אישית, בהתבסס על ידע רפואי שנצבר במיומנות רבה לאורך שנים. אך יחד עם זאת, הטכנולוגיה הולידה שירותי צ'אט בוט שמוסרים מידע ללא פיקוח אנושי, בהתבסס על אלגוריתמים שדולים מידע ממאגרים שונים ברשת, ובאופן שמתברר כי עשוי להוביל לקבלת מידע חלקי, לא עדכני, שגוי ולעתים אף מטעה בצורה מכוונת. מידע שכזה עשוי במקרים מסוימים להפיח תקוות שווא, ובמקרים קשים יותר עשוי גם להיות מסכן חיים.

 

בממסד הרפואי מתריעים כבר מספר עשורים מסכנות של מידע רפואי לא מבוסס שמצוי בשפע באינטרנט, העשוי להביא לסכנות. במאמר בנושא שפורסם עוד ביולי 2002 בכתב העת JAMA נטען כי "היכולת של האינטרנט להזיק משתווה ואף עולה על יכולתו לספק רפואי מידע טוב ואמין למשתמשים". בספרות הרפואית מתועדים לאורך השנים מקרים של מטופלים שסיכנו את חייהם על בסיס מידע שגוי שהשיגו בכלי חיפוש שונים באינטרנט. כך, למשל, בתחום תוספי התזונה קיימים דיווחים על מטופלים שצרכו תוספי תזונה עליהם קיבלו מידע ברשת ופיתחו סיבוכים רפואיים מורכבים.

 

לדברי בן יעקב, "בנושאים רפואיים חייבת להיות צרכנות נבונה, אחרת אנשים עשויים לתלות תקוות בטיפולים שלא הוכחו, להוציא כספים רבים שאין להם, ואולי חלילה גם לגרום לעצמם נזקים".

 

*שמוליק בן יעקב הוא יו"ר האגודה לזכויות החולה

 

עדכון אחרון: ינואר 2024