בני אדם רואים אנושיות בכל מקום ומייחסים תכונה זו לכל דבר. אנחנו רואים בלילה צל של עץ וחושבים שזה אדם, אנחנו מרימים את הראש, מביטים בעננים ורואים פרצוף, אנחנו מייחסים לבעלי חיים תכונות אנושיות, אפילו לעצמים דוממים. לפני הרבה שנים היתה לי מכונית שטענתי שהיא "עושה לי דווקא", שהיא "מנסה לעצבן אותי בכוונה". שמעתי פעם מישהי שטוענת שהמיקסר שלה חולה, שהמקרר שלה סנוב, שהטלפון שלה עצלן.
אם זה מה שאנחנו אומרים על מכונית, מיקסר או מקרר אין להתפלא שכשאנחנו בוחנים, מתנסים ומתארים את הטכנולוגיה המתקדמת בתקופתנו, את הבינה המלאכותית, אנחנו מאנישים אותה ללא הפסקה: הבינה המלאכותית "כותבת" ו"חושבת", היא "הוזה", ו"מרמה", היא "יצירתית" ו"פואטית", היא "ירדה מהפסים", היא "מצחיקה".
רבים מרגישים שיש משהו שגוי בייחוס תכונות אנושיות למודלים סטטיסטיים, ועדיין אנחנו מתקשים לחדול מכך. אפילו מי שמפתחים את הטכנולוגיות האלו, אפילו החוקרים שבוחנים אותן ויודעים שאלה אלגוריתמים המבוססים על מודלים מתמטיים, מתקשים לחדול מכך.

מחקר של שתי חוקרות מהאוניברסיטאות אוקספורד וסטנפורד שפורסם באחרונה ב־ArXiv, בחן יותר מ־200 אלף תקצירים של מאמרים בתחום מדעי המחשב שפורסמו בין ינואר 2023 לדצמבר 2024. הממצאים: שיעור התקצירים שבהם הופיעו מונחים שמייחסים למערכות הבינה המלאכותית "תכונות אנושיות" עלה מ־34% ל־40%.
בכל הנוגע למחקרים המזכירים את מודלי השפה הגדולים (LLMs) שנמצאים בליבם של צ'אטבוטים כמו ChatGPT, ג'מיני או קלוד, נרשמה עלייה מכ־40% ל־48%. לטענת החוקרות הממצאים מצביעים על נטייה גוברת והולכת של מסגור אנתרופומורפי (מאניש) במחקרים בתחום מדעי המחשב.
כשאנחנו מדברים וכותבים על המודלים האלה במונחים אנושיים, אנחנו מצמצמים בצורה משמעותית את האופן שבו אנחנו חושבים עליהם, חוקרים אותם או מבינים אותם. למשל, האנשה עלולה להגביל את השאלות שחוקרים מציבים ואת הגישות המחקריות הנשקלות כשהם בוחנים את המערכות האלו. אם אנחנו מניחים שמודלי בינה מלאכותית אמורים לתפקד כמו בני אדם, אנחנו עשויים להתעלם מגישות מחקר חדשניות, כאלו שלא מיועדות לבחון "בני אדם מלאכותיים" אבל יכולות להניב תוצאות טובות יותר. תפיסות אנתרופומורפיות יכולות גם להוביל לציפיות מנופחות, ולעודד רמות לא סבירות ולא בריאות של אמון או הסתמכות על המערכות החושבות.
כשאנחנו מייחסים למודלים האלה כוונות ("ג'מיני מתחמק מלענות לי"), שיפוטים ("קלוד די מצחיק") או ערכים נורמטיביים ("ChatGPT שיקר לי!"), אנחנו עלולים לפרש בצורה שגויה את המקרים שבהם הם נכשלים במשימה שהצבנו בפניהם. תיוג שגיאה של מודל בינה מלאכותית כ"הזיה", יכול להשפיע על האופן שבו אנחנו חושבים על הבעיה שגרמה ל"הזיה", וגם על האופן שבו אנחנו חושבים שניתן לתקן אותה.
הנה בעיה נוספת: אנחנו מבינים את העולם באמצעות שפה, נניח אנגלית, ואנחנו מבקשים מהמודלים האלו לדבר איתנו ולהסביר את עצמם באנגלית. אבל האם זו הדרך הכי יעילה עבורם? אולי השפה שלנו מגבילה אותם?
ומה בנוגע לאופן שבו אנחנו בוחנים את מערכות הבינה המלאכותית? בשנים האחרונות משקיעים החוקרים מאמץ ניכר בפיתוח מבחנים שיעזרו להם להבין עד כמה המודלים האלו טובים במתמטיקה, בפיזיקה או בהיסטוריה. אבל האם הדרך הכי טובה לבחון אותם היא באמצעות מבחנים מהסוג שבני אדם עוברים? הם לא לומדים כמונו, הם לא התפתחו כמונו, הם לא מבינים את העולם כמונו. אז מדוע המבחנים שבוחנים אותם כל כך דומים למבחנים שבוחנים אותנו? שלא לדבר על כך שמודלי בינה מלאכותית לומדים באמצעות הרבה דוגמאות, כך שאם הם ילמדו גם כיצד בוחנים אותם, הם עשויים להצליח בבחינות ללא קשר ליכולות האמיתיות שלהם.
סוגיית האחריות דורשת גם התייחסות. האנשה מרמזת שמודלי הבינה המלאכותית הם סוכנים דמויי אדם שמסוגלים לקבל החלטות מוסריות. אבל כשאנחנו ממסגרים את הבינה המלאכותית כמי שמצוידת ביכולת לבצע בחירות מוסריות, אנחנו מטשטשים את התפקיד ואת האחריות של המפתחים, של המהנדסים ושל בעלי החברות שמפתחות, משווקות ומוכרות את המערכות האלו. יש מי שמעוניין שנדבר בצורה כמו־אנושית על המערכות האלו, יש מי שמקדם ומעודד את השיח הזה.
ברור שהמשגה אנתרופומורפית, שימוש במטאפורות והאנשה יכולים להועיל. הם מספקים מסגרות אינטואיטיביות וקלות להבנה של מערכות מורכבות. קשה להסביר לקהלים רחבים איך המערכות האלו עובדות ללא שימוש באנלוגיות, מה עוד שבאופן טבעי נוח לנו לדבר במונחים שקרובים לנו, במונחים אנושיים. אבל אנחנו צריכים להיזהר שלא לחצות את הקו שאחריו האנשה מפסיקה לסייע לנו ומתחילה לפגוע ביכולת שלנו להבין מה המערכות האלו מסוגלות לעשות ומה לא, ומי הם אלה שבאמת נושאים באחריות ומקבלים את ההחלטות.
(מגזין TheMarker, פורסם ב-9.4.2025)
כתיבת תגובה