אנא סובבו את הטלפון שלכם.

יצירת
קשר

לקבוצת
הפייסבוק

רישום
לניוזלטר

[adning id="57105"]

עמוד הבית / מאמרים / זהירות: בינה מלאכותית

זהירות: בינה מלאכותית

קבוצת חוקרים מתחומי דעת שונים קוראת ליתר פיקוח על טכנולוגיות ה-AI.

לפני מספר חודשים פורסם בכתב העת המדעי היוקרתי Science מאמר דעה, המתריע מפני סכנות הבינה המלאכותית וקורא להשית עליה מנגנוני פיקוח ובקרה קפדניים. מערכות השלטון וגם החקיקה, לפי המאמר, אינן מתפתחות במהירות הראויה כדי להיערך לאיום הפוטנציאלי; כותביו מציעים מתווה שכולל מחקר ופיתוח טכניים, לצד מנגנוני ממשל הנוקטים יוזמות, לצורך התמודדות טובה יותר עם העתיד לבוא. על המאמר חתומים למעלה מעשרים חוקרים ממגוון תחומי דעת, ביניהם ההיסטוריון יובל נוח הררי, חוקר הבינה המלאכותית יושואה בנג'יו (Bengio) והפסיכולוג דניאל כהנמן (Kahneman), זוכה פרס נובל לכלכלה שנפטר לאחרונה. החלטתם לפרסם מאמר משותף מדגישה את חשיבות הנושא.

מערכות בינה מלאכותית הפכו בשנים האחרונות לחלק בלתי נפרד מחיינו. רבות כבר נכתב על יכולותיהן המרשימות ועל השימוש ביכולות האלה בשלל תחומים, ממחקר רפואי – כמו הטכנולוגיה AlphaFold מבית DeepMind, שחוזה בדיוק רב מבנה של חלבונים, מה שמאיץ פיתוח תרופות חדשות – ועד "סתם" יצירת תמונות לפי הזמנה. גם מודלי שפה, כמו צ'אט GPT, הוכיחו את יכולתם ביצירת טקסטים רהוטים, שעשויים לסייע בתהליכי כתיבה ולמידה. חברות רבות משקיעות סכומי עתק בפיתוח טכנולוגיות בינה מלאכותית, מחשש להישאר מאחור במרוץ הטכנולוגי.

שקרים מחוכמים, אוטונומיה מפוקפקת

עם כל יתרונותיהן, השימוש בטכנולוגיות בינה מלאכותית טומן בחובו גם סיכונים לא מעטים. דמיינו מצב שבו גורמים עוינים מפיצים ברשתות החברתיות מידע כוזב שיצרה בינה מלאכותית, באמצעות פרסומים ממוקדים המוּנָעים מפחדים ומרגשות. כבר כעת, היקף המידע האישי שאנשים בוחרים לחלוק עם העולם כולו ברשתות החברתיות מאפשר למערכת "להכיר" את המשתמשים לעומק, ו"לדעת" מה אוהב כל משתמש, ממה הוא פוחד ומה מרתיע אותו. באמצעות המידע הזה אפשר להפוך כל קמפיין למותאם-אישית, ולהציג את חלקי העובדות (או אפילו את השקרים) שעשויים להשפיע במידה הרבה ביותר. פרסומים כאלה יכולים להשפיע על דעת הקהל, להציג מידע שאינו בהכרח אמין, וכך לפגוע באמון הציבור במערכות הדמוקרטיות ולקדם תחושת אנרכיה. לפי הערכות כותבי המאמר, הבינה המלאכותית יכולה להעצים את כל ההשפעות הללו.

סיכון נוסף הוא העברת השליטה במכוניות או במטוסים מבני האדם למערכות אוטונומיות, שעלולות לפעול באופן בלתי צפוי ולגרום לנזקים חמורים. יתרה מזאת, כל אחד מהתחומים שישלבו בתוכם מערכות בינה מלאכותית עלולים ליפול קורבן למתקפת סייבר. זה יכול לקרות למשרדי ממשלה, לבנקים ולמערכות בריאות או תחבורה. החוקרים מזהירים שבלי בקרה ופיקוח נאותים, האנושות עלולה למצוא את עצמה חסרת אונים מול פצחנים (האקרים), והסכנות מפיתוח בלתי מבוקר של בינה מלאכותית יכולות להיות חמורות ואף מסכנות חיים.

קול קורא לרגולציה

לדברי החוקרים, אין די ברגולציה הקיימת כדי להתמודד עם האתגרים שמציבות טכנולוגיות הבינה המלאכותית המתקדמות. רק אחוז עד שלושה אחוזים מהמאמרים בתחום מוקדשים לבטיחות הטכנולוגיה. מערכות רבות פועלות כמעט ללא פיקוח, והחקיקה אינה מגדירה גבולות ברורים לפעילותן. הכותבים מצביעים על הצורך במנגנוני אכיפה חזקים וברגולציה מתאימה כדי למנוע מתרחישים מאיימים, כמו אלה שהוזכרו בפסקה הקודמת, להפוך למציאות.

כותבי המאמר מציעים מספר המלצות לשיפור הפיקוח והבקרה על טכנולוגיות הבינה המלאכותית. כדי להתמודד עם היעדר הפיקוח, הם קוראים להקצות לפחות שליש מתקציבי הפיתוח לניטור סיכונים ולהערכתם. עוד הם מציעים לחייב את מפתחי הטכנולוגיה להירשם תחת ארגון מפקח ממשלתי או אחר, וכן לדווח, עוד בשלבי הפיתוח, על קשרים עם בעלי עניין ועל נקודות תורפה אפשריות של הטכנולוגיה, בלי לחשוף מי איתרו את הפרצה האפשרית.

בהתבוננות רחבה יותר, הכותבים ממליצים לקבוע תקני בטיחות שיתאימו ליכולות של הבינה המלאכותית, לוודא שהחברות המפתחות יישאו באחריות משפטית לנזקים שאפשר לצפות מראש, להקים מסגרות רגולטוריות בינלאומיות שיבטיחו שיתוף פעולה בין מדינות במניעת שימוש לרעה בבינה מלאכותית, ולפתח מנגנונים שיופעלו באופן אוטומטי כאשר הבינה המלאכותית מפתחת יכולות מסוימות, כגון יכולת לקבל החלטות קריטיות באופן עצמאי לחלוטין, או לפתח אלגוריתמים שיכולים לשכפל את עצמם בלי התערבות אנושית.

המשך הדרך

החוקרים מדגישים שחשוב לנהל את נושא הבינה המלאכותית באופן מקיף, שכולל גם פעילות פרואקטיבית של הממשל, ואת הצורך לאזן בין התקדמות טכנולוגית לפיקוח אחראי. לדבריהם, בעזרת יישום ההמלצות אפשר יהיה ליהנות מיתרונות הבינה המלאכותית ולצד זאת למזער את הסיכונים הנלווים. הצעדים שהם מציעים עשויים ליצור סביבה ידידותית לפיתוח טכנולוגיות בינה מלאכותית, שגם שומרת על בטיחות ונתונה לרגולציה נאותה. לטענתם, כדי שהמשך הפיתוח הטכנולוגי יועיל לאנושות, חיוני להבין את ההשלכות ואת הסיכונים, וקריאתם לפעולה דחופה ולפיקוח אפקטיבי היא קריטית למניעת סיכונים הרי-גורל ולהבטחת שימוש אתי בטכנולוגיה.

הכותב נעזר בבינה מלאכותית בתהליך העבודה על הכתבה.
מאת: שגב נוה טסה
באדיבות מכון דוידסון לחינוך מדעי, הזרוע החינוכית של מכון ויצמן למדע
https://davidson.weizmann.ac.il/

וובינרים קרובים

  • 20:50 – 20:30
    "רצף טיפולי בקנאביס רפואי"
  • 21:20 – 21:00
    "זיהומים בדרכי הנשימה בפעוטות וילדים – עדכונים בגישה הטיפולי"
  • 21:50 – 21:30
    "כאבים אורטופדיים וטיפול תרופתי: מציאת האיזון בין יעילות לבטיחות"
לפרטים נוספים והרשמה
  • 21:20 – 21:00
    "טירזפטייד שחקן חדש בעולם ההשמנה"
  • 21:50 – 21:30
    "כאבי בטן  נפיחות וגזים? האם מדובר באנזימי עיכול?"
לפרטים נוספים והרשמה

חברות בפוקוס

Rafa Laboratories

0מאמרים
0וובינרים
199עדכוני
רישום
0משרות
פתוחות

HALEON

0מאמרים
0וובינרים
2עדכוני
רישום
0משרות
פתוחות
נגישות

אישור הרשמה

תודה על הרשמתך

ברגעים אלה נשלח אליכם מייל אישור הרשמה. להפעלת חשבונך באתר, יש ללחוץ על קישור זה.

הנתונים שסיפקת במהלך הרישום נבדקים כעת מול מאגר רישוי המקצועות הרפואיים במשרד הבריאות. בתום הבדיקה תתקבל הודעה בהתאם.

תוכן למנויים

תוכן זה ניתן להצגה
לאנשי / נשות
צוות מקצועי בלבד

לכניסה למערכת:

עדיין לא נרשמת? להרשמה לאתר

,אם הינכם עובדי מקצועות הבריאות
.עדכנו זאת בחשבונכם האישי

אם לדעתך נפלה טעות, ניתן ליצור קשר עם צוות האתר דרך עמוד יצירת הקשר

כניסת מנויים רשומים

עדיין לא נרשמת? להרשמה לאתר

בלחיצה על כניסה אני מאשר\ת את הסכמתי לתנאי האתר ולמדיניות הפרטיות