הבדיחה הפכה למציאות של עולם המדע

קטגוריות: , ,

בראשית יוני 2025 פרסמו שישה חוקרים מחברת אפל מחקר שהיכה גלים. במחקר, שכותרתו "אשליית החשיבה", נטען שמודלי ההיגיון הגדולים (LRM) מסוג o1 ו-o3 של OpenAI, אלו שמסוגלים לפרק בעיה לתתי־בעיות, "לחשוב", "להסיק מסקנות" ועל בסיס כל זה לספק תשובות עמוקות ומדויקות יותר ממודלי השפה הגדולים (LLM), מצליחים להתמודד רק עם בעיות ברמת סיבוכיות בינונית. מהרגע שמעלים את רמת הסיבוכיות לרמה גבוהה, הם מתמוטטים כמו מגדל קלפים.

אחד מקוראי המחקר הוא אלכס לואסן שחשב שזה יהיה מצחיק אם הוא יציג תגובה למחקר מטעמו של "קלוד אופוס", מודל הבינה המלאכותית המתקדם ביותר של חברת אנתרופיק. הוא הזין את קובץ ה־PDF למודל וביקש ממנו לזהות כשלים בולטים בטיעוני החוקרים.

קלוד ניתח את הטקסט, מצא כמה כשלים והציג את מסקנותיו. לואסן לקח את התגובה של קלוד, הפך אותה לקובץ PDF והגיש אותו כמאמר מדעי באתר arXiv שבו פורסם המחקר המקורי של חוקרי אפל ושבו משתמשים חוקרי בינה מלאכותית רבים כדי לפרסם את מממצאיהם. הוא חתם על המאמר בשמו וגם החתים עליו את קלוד אופוס, תחת השם C. Opus, ואז דיווח על מעשיו בציוץ משועשע.

בפוסט שפרסם בבלוג שלו סיפר שכל מי שקרא את הציוץ שלו הבין את הבדיחה. על אף שקלוד הצביע על בעיות אמיתיות במחקר, לואסן לא השקיע זמן רב במכלול הטענות שלו, ופרסום המאמר ב־arXiv הפך את כל העניין למצחיק במיוחד: מודל בינה מלאכותית המצויד ביכולות היגיון, חושף בעיות היגיון במחקר שטוען שמודלי בינה מלאכותית שמצוידים ביכולות היגיון, לא חושבים בהיגיון. היסטרי.

אבל מה שקרה אחר כך לא היה מצחיק בכלל. מהרגע שהמידע על "המחקר" של לואסן יצא ממעגל החברים הקטן שלו, העניינים יצאו מכלל שליטה. חשבון טוויטר שמסכם מאמרים שמתפרסמים ב־arXiv תמצת את תוכן "המחקר" של לואסן, מבלי שסיפק הקשר שהיה יכול לסייע לקוראים להבין שמדובר בבדיחה. הוא גם הציג את לואסן כ"חוקר בינה מלאכותית". הוא לא.

כעבור זמן קצר, כמה חשבונות פייסבוק החלו להציג סיכום של "המחקר" באופן שיגרום לאדם מן השורה להסיק שמדובר במחקר לגיטימי, אמיתי ורציני. כשלואסן תהה איך ייתכן שהקוראים לא מבינים את הבדיחה, הסביר לו חוקר בתחום שהוא נתקל בכמה מחקרים של חוקרים אמיתיים שהוגשו לכנסים מקצועיים, שנכתבו בצורה דומה ושהיו מצוידים בטיעונים דומים.

הפרודיה קרסה לתוך עצמה: לואסן חשב שהוא מגיש טקסט שנכתב על ידי בינה מלאכותית ומשום כך כולם יבינו את הבדיחה. בפועל, לא ניתן היה להבחין בין הבדיחה לבין מחקרים לגיטימיים ולכן קהיליית החוקרים, העיתונאים ושאר המומחים התייחסו אל הטקסט שלו כאילו היה מחקר אמיתי. הוא כתב: "פישלתי. הייתי צריך להיות זהיר יותר".

בעוד שלואסן נדהם מהמהירות שבה הטקסט שלו הגיע למיליוני אנשים, הוא נדהם לא פחות מהעובדה שאנשים לא באמת התעמקו במה שנכתב בו, שהם לא שמו לב לכך שאחד המחברים הוא קלוד ושהם התייחסו אל מה שהם קראו כאל מקור מידע לגיטימי. הוא ניסה לעדכן את ה"מחקר" אבל זה היה מאוחר מדי: יותר מדי אנשים שניסו לנגח את המסקנות של חוקרי אפל השתמשו בטקסט שלו כאסמכתא לטיעונים שלהם; השד ברח מהבקבוק.

לסיפור הזה יש שתי מסקנות מעניינות.

הראשונה היא שיש מחלוקת אמיתית, עמוקה וסוערת סביב השאלה עד כמה הנתיב הנוכחי של פיתוח מערכות בינה מלאכותית הוא הנתיב הנכון. בעוד שיש שטוענים שבקצה הנתיב הזה נמצאת "בינה מלאכותית כללית" (AGI), שלא לדבר על "סופר־בינה־מלאכותית" (ASI), אחרים טוענים שזהו נתיב ללא מוצא, מבוי סתום.

הוויכוח לא מתנהל בשולי עולם הבינה המלאכותית אלא ממש במרכזו, ונוטלים בו חלק כמה מגדולי המומחים לבינה מלאכותית בעולם. זהו ויכוח יצרי בשל סכומי העתק – מאות מיליארדי דולרים – שמושקעים בכיוון הנוכחי. המחקר של אנשי אפל משמש כעת כלי נשק מרכזי בידי המחנה שטוען שזהו כיוון שגוי.

המסקנה השנייה חשובה לא פחות: הגענו לשלב שבו מערכות הבינה המלאכותית כותבות טקסטים באיכות שמקשה עלינו להבחין בין תוצריהן לבין תוצרי כתיבתם של בני־אדם בשר ודם. הן משתמשות בטרמינולוגיה הנכונה ומחקות בצורה כמעט מושלמת את הטון והסגנון שנהוגים בחוגים האקדמיים, מה שמוביל לקושי אמיתי להבחין בין מחקרים לגיטימיים לבין "מחקרים" שנכתבו על ידי מערכות בינה מלאכותית.

על פי ההערכות, כ־1% מכלל המאמרים המדעיים שפורסמו ב־2023 נכתבו על ידי מערכות בינה מלאכותית. באמצע 2024 שיעורם כבר נאמד ב־10%. לא מן הנמנע שבתוך כמה שנים רוב המאמרים המדעיים שיתפרסמו בעולם יכתבו על ידי בוטים, והפרודיה של לואסן תיהפך למציאות של עולם המדע.

(מגזין TheMarker, פורסם ב-10.8.2025)

תגובות

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *