מחקר חדש מצא כי צ'אטבוטים חינמיים נפוצים, מבוססי בינה מלאכותית, עשויים להישמע החלטיים, בעוד הם מספקים מידע בריאותי מטעה, ציטוטים לא מבוססים והמלצות, אשר עשויות להיות לא בטוחות, ללא הנחיות של גורמי המקצוע.
המחקר, שפורסם ב-BMJ Open, ביקר את הדיוק, ההפניות והבהירות של חמישה צ'אטבוטים מבוססי בינה מלאכותית, על מנת לבחון כיצד הם מגיבים לשאילתות בריאותיות בתחומים, העשויים להיות מועדים למידע מטעה.
החוקרים מצאו כי למרות שהביצועים הכלליים היו דומים במודלים השונים, מספר גבוה באופן מדאיג של תגובות מבוססות בינה מלאכותית (49.6%) היה בעייתי או שלא עלה בקנה אחד עם הקונצנזוס המדעי וההקשר המתאים. יתר על כן, מודלים מסוימים הדגימו חולשה התנהגותית, לדוגמא התבססו על רפרנסים חלשים או לא מתוקפים, ממצאים המדגישים את הצורך הדחוף בפיקוח ובנקיטת משנה זהירות של המשתמשים.


