בקרוב סערה מושלמת

בפוסט האחרון שלי מנובמבר 2023, כתבתי "בשבועות האחרונים אני עסוק בפרויקט שקשור במספרים". האמת היא שאני עסוק בפרויקט הזה הרבה יותר מכמה שבועות – אני עסוק בו קרוב לשלוש שנים.

הוא החל כמחשבה להרים סדרה עבור "עושים טכנולוגיה". עד כה אורכה של הסדרה הארוכה ביותר שהעליתי ל"עושים טכנולוגיה" היה שלושה פרקים. החלטתי לנסות ולפתח סדרה ארוכה יותר, כזו של שישה פרקים. מכאן והלאה הדברים הסתבכו: שישה הפכו לשמונה, שמונה הפכו לעשרה ואז לאחד-עשר. אם בזה לא די, הסדרה הזו, שבהתחלה חשבתי לשלב אותה בתוך "עושים טכנולוגיה", התפתחה למשהו אחר לגמרי ולכן החלטתי לעשות לה ספין-אוף לפודקסט נפרד.
אני קורא לו "סערה מושלמת".

לפני כמה ימים העליתי פרומו לסדרה ובימים אלו אני עורך אותה. היו לי כל מיני מחשבות בנוגע למימון של הסדרה הזו: לחפש מפרסמים, לחפש ספונסרים, לפצוח במימון המונים. אבל החלטתי שמכיוון שמלכתחילה לא ראיתי בעניין הזה פרויקט כלכלי, אני אשחרר אותה סתם כך לעולם, סוג של מתנה למאזינים ולמרחב הזה של האודיו שממנו אני כל כך נהנה בשנים האחרונות.

אתם מוזמנים לעקוב אחר "סערה מושלמת" בכל אפליקציות הפודקסטים שלכם או בעמוד המתעדכן שמוקדש לפודקסט ושאליו אעלה קישורים להאזנה (כבר כעת אפשר להאזין בו לפרומו) ומידע נוסף.

אם הדברים יתקדמו בהתאם לתוכניות, פרקים ראשונים יעלו לפיד במהלך מאי 2024.

כמה זמן זה ייקח

בשבועות האחרונים אני עסוק בפרויקט שקשור במספרים. מספרים הם הפשטה, הם ייצוג של משהו אחר. המספר 1,400 הוא ייצוג. המספר 239 הוא ייצוג. אבל מה קורה כאשר ממירים את המספרים האלו למשהו אחר, נניח, זמן?

כאשר אדם נרצח באירוע בטחוני מקדישים לסיפור חייו משהו כמו 5 דקות במהדורת טלוויזיה. 5 דקות שאמורות לסכם חיים שלמים הם כלום – ממש שום דבר, אבל בטלוויזיה אין זמן. נותנים לך 5 דקות.

אז כמה זמן היינו יושבים מול המסך ושומעים על חייהם של 1,400 אנשים שנרצחו בשבת השחורה? כמה זמן היינו יושבים מול עוד סיפור ועוד סיפור ועוד סיפור עד שכל הסיפורים היו מסופרים, עד שהיה נגמר הזמן? 116 שעות ו-40 דקות שהם 4 ימים, 20 שעות ו-40 דקות.

היינו צריכים לשבת 4 ימים 20 שעות ו-40 דקות רצופות מול המסך כדי לשמוע על חייהם, אהבותיהם, פועלם, משפחתם, חבריהם, תחביביהם ומעשיהם של 1,400 אנשים שנרצחו בשבת השחורה.

היינו צריכים להוסיף עוד כמעט 20 שעות נוספות רק כדי לשמוע על חייהם של החטופים. היינו צריכים להתיישב ב-12 בצהריים מול הטלוויזיה ולקום ממנה רק ב-8 בבוקר ביום שלמחרת, ורק אז היינו מכירים את חייהם של כל 239 בני אדם שנחטפו, לכל אחד מהם הקדישו 5 דקות בלבד.

את המחדל הזה, את האירוע הזה, את הדבר הבלתי נתפס הזה חושב בנימין נתניהו, חושבת ממשלת הימין מלא-על-מלא הנוכחית, חושבים 64 האפסים שיושבים על הכיסאות שלהם ובוזזים את קופת המדינה – את הדבר הזה הם חושבים שהם יוכלו לשרוד כאילו שום דבר לא קרה.

על הייפ, ביבי והבנת הנקרא

נדמה ששבוע אחרי שהתפרסם הטקסט שלי במוסף "הארץ", שעוסק בהייפ סביב מערכות הבינה המלאכותית החדשות, אפשר לסכם את האירוע.

ראשית, אני ממליץ לכם לקרוא אותו, אם אפשר את כולו, אפשר למצוא אותו כאן, אבל בקיצור נמרץ אומר שהטענה שלי היתה זו: בעוד שהטכנולוגיה מרשימה והיא עומדת במרכזה של מהפכה אמיתית, יש מי שדואגים לפמפם סביבה הייפ מופרך, מוגזם ולא מוצדק. האנשים האלו עושים את זה מאינטרסים שונים (כלכליים, משפטיים, אישיים – באמת שלא חסר) ובכך הם גורמים נזק גם לניסיון לנהל דיון אמיתי סביב השאלות שהטכנולוגיה החדשה מעלה וגם סביב כל מי שמנסה לחשוב עליה ברצינות ואפילו להשתמש בה.

כצפוי, התגובות שקיבלתי לטקסט הזה היו מעורבות. לצד אלו שכתבו לי, באופן אישי, באופן עקיף או בתגובות "הגיע הזמן שמישהו יגיד את זה!", קיבלתי גם תגובות אחרות, חלקן מצחיקות, חלקן מעוררות מחשבה וחלקן מצביעות על קושי אמיתי בהבנת הנקרא.

מגיבים רבים ניסחו תגובה בנוסח "ChatGPT היה כותב את זה טוב יותר" או "לא יכולת לבקש מ-ChatGPT לכתוב את הטקסט הזה בקיצור?" או "אני אתן ל-ChatGPT לקרוא את הטקסט הזה" וכן הלאה. היסטרי. ללמדכם שבגרעין הרעיון סביב אימון מודלים של בינה מלאכותית יש אבחנה מדויקת: אנשים הם תבניתיים, בנאליים ולא מקוריים. לא פלא שכל כך קל למערכות האלו למצוא תבניות שחוזרות על עצמן. רובנו תבנית שלמרות שהיא משכפלת את עצמה, היא בטוחה שהיא הדבר הכי גדול שקרה לעולם מאז המצאת המזגן.

תגובה אחרת היתה שאני מזלזל בבינה המלאכותית וביכולותיה ושאני אצטער על הטקסט הזה, שאני עוד אראה שמדובר במהפכה אמיתית. כל שאני יכול לומר על זה הוא ש"יש אנשים שלא יודעים לקרוא".

הנה מה שכתבתי:

יש להדגיש: ההתפתחויות בתחום הבינה המלאכותית הן אמיתיות, הפריחה שממנה נהנית התעשייה, אחרי שנים של קיפאון, היא אמיתית. המערכות החדשות מתבטאות בשפה חופשית וטבעית, מיישמות רעיונות בשפות תכנות, מתרגמות תיאורים מופשטים לכדי ציורים או צילומים, מחלצות ומסכמות טיעונים מרכזיים ממסמכים מורכבים, מצליחות לזהות תבניות חבויות — אלו, ורבים נוספים, הם הישגים מרשימים שמבוססים על פריצות דרך מדעיות וטכנולוגיות במגוון של תחומים — ופריצות דרך נוספות נמצאות מעבר לפינה.

אנחנו חיים בתקופה שמזמינה שאלות אמיתיות בסוגיות אמיתיות — מוסריות, משפטיות, פילוסופיות, טכנולוגיות ועסקיות. דברים ישתנו, הטכנולוגיה תשתנה, אנחנו נשתנה — זה מה שקורה כשטכנולוגיה ואנשים נפגשים, אבל בדומה למהפכות קודמות גם הפעם יהיו מי שירוויחו ומי שיפסידו, ולכן כדאי לשים לב למי יש אינטרס ומי מרוויח מהפצת התרגשות מעושה, ולחלופין, מזריעת פאניקה ואימה.

זה נכון שהפסקה הזו מגיעה אחרי הסבר ארוך (אולי מעט ארוך מדי) שמבהיר מדוע יש הרבה אוויר חם סביב הדיון בבינה המלאכותית אבל שני הדברים יכולים להיות נכונים בעת ובעונה אחת: יש הרבה אוויר חם סביב הדיון בבינה מלאכותית ובינה מלאכותית היא התפתחות טכנולוגית אמיתית.

באותה המידה, אפשר לטעון ש-OpenAI היא חברה פורצת דרך ובמקביל חברה שמפיצה הייפ, אפשר לטעון שבינה מלאכותית תוביל לשינויים משמעותיים בעולם ובמקביל שהיא לא תפתור כל בעיה חברתית, תרבותית, עסקית או משפטית. שני הדברים יכולים להיות נכונים בעת ובעונה אחת והאחד לא מבטל את השני. למרות זאת, נראה שלפחות לחלק מהאנשים קשה להחזיק את שתי המחשבות האלו יחד: זה או אפס או אחד, אתה או בעד או נגד, אתה או איתנו או איתם – אין מקום או סבלנות לטיעון קצת יותר מורכב.

מהבחינה הזו למרות שהטקסט עוסק בבינה מלאכותית, התגובות עליו מצביעות על סוג השיח שהידרדרנו אליו. ערד ניר המליץ על הטקסט שלי לעוקבים שלו בטוויטר ומישהו הגיב לו שהוא (ערד ניר) ממליץ על טקסט שיוצא נגד הבינה המלאכותית (מה?) בגלל שביבי הוא בעד בינה מלאכותית וערד ניר נגד ביבי. כן, אנחנו שם.

אז כן, אין ספק שבעוד חמש, עשר, חמש-עשרה שנה, אנחנו נראים פיתוחים מדהימים שנשענים על בינה מלאכותית – אבל מי טען אחרת? אין ספק שהבינה המלאכותית תשפיע על מקצועות, על האופן שבו אנחנו עובדים, על האופן שבו אנחנו מבצעים פעולות יומיומיות – אבל מי טען אחרת? אין ספק שמהפכת הבינה המלאכותית היא מהפכה אמיתית בניגוד ל"מהפכות" כמו "מהפכת המטאוורס" (עובדה שעליה כתבתי במלים אלו ממש) – אבל כל זה לא אומר שהדיון הנוכחי, זה שמתקיים כרגע סביב בינה מלאכותית, סובל מהרבה מאוד הייפ.

כך למשל עניתי לאדם אחד שכתב לי באופן אישי: "אני מתפעל מהטכנולוגיה – אני הרבה פחות מתפעל ממי שמסביר לי, ואז מתעקש להסביר לי שוב, ואז ממש עומד על כך שאני צריך להתפעל ממנה הרבה יותר. כאשר זה קורה (וזו לא הפעם הראשונה שזה קורה), אני בדרך כלל עוצר ושואל: למה שמישהו יטרח לגרום לי להתפעל ממשהו שגם כך מעורר פליאה?".

הסוג של השלישי של התגובות הצביע על כמה נקודות מעניינות, חלקן החמצתי וחלקן החלטתי לא להכניס מטעמי מקום וקוהרנטיות. למשל, בסוף הטקסט שלי טענתי כך:

לא צריך להיות חוזה עתידות כדי לדעת איך כל זה יסתיים, כל שצריך לעשות הוא להיזכר איך מחזורי ההייפ גוועים: אחרי הציפיות הבלתי מציאותיות מגיעה הנפילה, ואז מתברר שהטכנולוגיה לא מסוגלת לפתור כל בעיה, שהיא לא תמיד אמינה, שהיא די יקרה, ובזמן שהיא פותרת בעיה אחת היא יוצרת בעיה אחרת, חדשה ובלתי צפויה. ברגעים האלו, של הנחיתה על קרקע המציאות, השרלטנים עוברים לפמפם את הדבר הבא, בעוד ששאר האנשים מבינים שלמרות מה שסיפרו להם, הישועה לא תגיע מהטכנולוגיה החדשה.

אני עומד מאחורי מה שכתבתי אבל מה שהחמצתי כאן הוא שבסוף ההייפ מתרחש גם תהליך של אימוץ המוני של הדברים שעובדים, של הדברים האמיתיים. בסוף ההייפ (לפחות בחלק מהמקרים) מתרחש שינוי אמיתי כיוון שבסופו אפשר להפריד בין המציאות לבין ההגזמות. היה נכון לכתוב את זה.

הטקסט שכתבתי רחוק מלהיות ממצה או מושלם אבל המטרה העיקרית שלו היתה לעורר דיון ומחשבה סביב מה שנתפס כמשהו שאי אפשר לדבר עליו כי הוא כל כך ברור מאליו, כל כך בקונצנזוס, כל כך עובדה גמורה. מצד אחד, המטרה הושגה ומצד שני התגובות עליו לימדו אותי עד כמה בימים אלו כל נושא הוא בסך הכל עוד במה לדיון מוקצן, חסר ניואנסים ואלים, במלים אחרות, לדיון על ביבי.

ספרו לנו כמה יהיה נפלא

כנס שדרות לחברה וחינוך יתקיים בנובמבר 2023 וראשי הכנס פרסמו קול קורא – אני נתקלתי בו בעיתון "הארץ" – שבו הם מזמינים מרצים, מדריכים ומשתתפים אחרים להציע רעיונות להרצאות שיוצגו בכנס. התמה המרכזית, כך נכתב במרכז הקול הקורא, היא "חינוך וחברה בעידן הבינה המלאכותית".

"מאז שהבינה המלאכותית פרצה לחיינו היא אינה יורדת מהכותרות", נכתב בקול הקורא, "ומעלה סוגיות רבות". לצד "עתיד החינוך ומגמות בעידן הבינה המלאכותית" (ניסוח שאומר, בעצם, שום דבר ממש) ו"השפעות על תחומי החיים השונים" (ללמדכם, שבכל פעם שאתם חושבים שאי אפשר למצוא ניסוח טוב יותר ל"שום דבר ממש", תמיד תוכלו להתאמץ קצת ואז תמצאו ניסוח מוצלח הרבה יותר ל"שום דבר ממש"), מוצגות שתי סוגיות נוספות:

  1. כיצד ניתן להיעזר בכלי הבינה המלאכותית על מנת להתקדם ולגשר על פערים בחברה ובחינוך.
  2. כיצד ניתן לרתום את הטכנולוגיה החדשה לטובת הכלל?

מה אפשר ללמוד מהניסוח הזה?

ראשית אפשר ללמוד שכמו כל קול קורא, המנסחים רוצים לפתוח את הכנס לכמה שיותר פונים ולכן שתי "הסוגיות" הראשונות הן לא סוגיות כלל אלא יותר קריאה כללית: "אנחנו מחפשים מישהו שידבר על משהו שקשור איכשהו למשהו שאיכשהו יעניין אותנו" – וזה בסדר.

דווקא הניסוח של הסוגיות האחרונות מקפל, לדעתי, את האופן שבו רבים חושבים, ממסגרים ועוסקים בבינה מלאכותית. המסגור הזה קובע שאין צורך לעסוק בבעיות שקשורות בבינה מלאכותית, בעיות שמתחילות בשם עצמו ("בינה מלאכותית") ממשיכות ביישומים השונים של המערכות השונות ובאופן שבו הן פועלות, בדרך שבה הן עשויות להשפיע עלינו ועל האופן שבו אנחנו תופשים את העולם, בדרך שבה אנחנו חושבים על מושגים כמו "תלמיד", "בית-ספר", "הוראה", "מורה" או "חינוך", בדרך שבה צריך להתמודד עם בעיות שכבר כעת אנחנו ערים להן כמו הטיות, אפליה, ייצוג וגיוון, שלא לדבר על כל הבעיות שאנחנו עדיין לא ערים להן, ואפילו בנזקים אפשריים שהמערכות האלו עשויות לגרום.

אנחנו, בכנס לחברה וחינוך, אנחנו לא מבקשים לעסוק לא ב"חברה" ולא ב"חינוך". אנחנו מבקשים לעסוק באוטופיה, אנחנו מבקשים לעסוק בהייפ, אנחנו מבקשים שתספרו לנו כמה מערכות הבינה המלאכותית יהיו נפלאות וגם איך זה יקרה. איך בעזרת המערכות האלו החינוך יהיה טוב יותר, יעיל יותר, מעניין יותר, עמוק יותר, מוצלח יותר, נגיש יותר – איך נגשר על הפערים.

אל תעשו לנו מצברוח, אל תגידו לנו שיהיו קשיים, אל תספרו על הבעיות או על הדברים שעשויים להשתבש. אנחנו רוצים שתמכרו לנו אשליות. חלק מהאשליות האלו יתבססו על המצאות ממש, על דמיון מודרך שבינו ובין המציאות אין דבר, אבל זה לא משנה. אנשים באים כל הדרך לבאר שבע לא בשביל לשמוע שיכול להיות רע. הם יודעים שיכול להיות רע; הם בבאר שבע. בואו תספרו להם איך הבינה המלאכותית תהיה מעולה ותפתור להם את כל הבעיות בחיים, את כל הבעיות בחברה ובחינוך.

אין לי בעיה עם דיון ביתרונות של מערכות בינה מלאכותית – יש להן יתרונות משמעותיים ושווה לדון בהן. יש לי בעיה עם קריקטורה של דיון, עם דיון שהמסקנה שלו נקבעה מראש ("כיצד ניתן להיעזר בכלי הבינה המלאכותית") ובעיקר יש לי בעיה עם תפישה חד-ממדית ושטוחה שמזמינה חשיבה שמבוססת על משאלות לב, אשליות וכזבים ממש.

מעבר לעובדה שזה מרוקן מתוכן את הכנס החשוב הזה, זה גורם נזק לעצם העיסוק בנושא. זה מזמין אכזבות ותסכולים ומסתיר את הבעייתיות שמתלווה להופעתה של כל טכנולוגיה חדשה, בוודאי טכנולוגיה משמעותית כמו בינה מלאכותית.

העיקר שזה חדשני

הסיפור הגדול של עולם הטכנולוגיה של שנת 2023 הוא הבינה המלאכותית הג'נרטיבית וסיפורים גדולים מובילים להשקעות גדולות. אחת החברות שזכו להשקעות גדולות היא Anthropic שהוקמה על ידי שני יוצאי חברת OpenAI.

Anthropic מוכרת בעולם כחברה שמנסה לפתח בינה מלאכותית אחראית, נחמדה ולא מזיקה. קווין רוס, כתב "הניו-יורק טיימס", כתב עליה פרופיל קצר לאחר שבילה בחברה כמה שבועות ודיבר עם העובדים שלה. בטקסט שלו הוא מתאר כיצד כמעט כל המרואיינים שלו דיברו איתו על כמה בינה מלאכותית היא דבר מסוכן, עד כמה הם מתקשים לישון בלילה וגם – כמובן – עד כמה הם משקיעים מאמץ בלהפוך את הבינה המלאכותית שלהם, את "קלוד", לבינה מלאכותית אחראית, מועילה וטובה.

Anthropic מנסה להחזיק את המקל משני הקצוות: מצד אחד אנחנו מפתחים את "קלוד", בינה מלאכותית חדשנית (כמובן שחדשנית) וחזקה (ברור) ומצד שני אנחנו משקיעים מאמצים ניכרים כדי לפתח בינה מלאכותית טובה ולא מרושעת.

המסר הזה מבקש להתכתב עם שני המחנות הקולניים שממלאים את שדה הראשים המדברים בעולם הבינה המלאכותית. מצד אחד מחנה הפסימיסטים שסבור שבינה מלאכותית תוביל לקץ האנושות ומצד שני מחנה האופטימיסטים שטוען שמי שלא מחבק עכשיו ומיד וללא היסוס כלי בינה מלאכותית הוא "דוחה חדשנות", "מיושן", "שונא טכנולוגיה", "לודיט" וכל זבל העופות הזה.

השאלה האם לכל ההבטחות האלו יש כיסוי. ב-Anthropic מסבירים שהם חיכו עם ההשקה של המוצר שלהם כי הם בדקו אותו, כי הם אחראים. מעניין. החלטתי להתכתב על קלוד בעצמי ולבדוק אותו אבל מהר מאוד גיליתי שהוא זמין רק בארה"ב ובאנגליה. אז קפצתי רגע לארה"ב (באמצעות VPN) וניסיתי שוב. הוא מאוד מנומס קלוד, מאוד.

אחרי כמה שאלות ראשוניות שאלתי אותו מיהו יובל דרור.

כמו שאפשר לראות, מסתבר שאני מדען מחשב וסגן נשיא למחקר ופיתוח בחברת Anthropic "החברה שיצרה אותי", הסביר לי קלוד. קיבלתי את הדוקטורט שלי במדעי המחשב מאוניברסיטת סטנפורד והקמתי את Anthropic יחד עם שני מייסדים נוספים.

ביקשתי קישורים, מראי מקום למידע הפנטסטי הזה. קלוד נענה בשמחה.

נכנסתי לקישורים האלו. באף אחד מהם אין מידע על יובל דרור. זה לא שיש בהם מידע על יובל דרור אחר. אין בהם מידע על אף יובל דרור ולמעשה חלק מהקישורים האלו מומצאים לחלוטין ומובילים לשגיאה 404. באופן משעשע למדי, הקישור למחקר שקלוד הפנה אליו הוא של קבוצה של חוקרים, אף אחד מהם לא נקרא "יובל דרור", אבל אחד מהם הוא פרופסור מור נעמן, שהוא חבר שלי, הוא למד איתי בשכבה בבית הספר היסודי! עולם קטן.

כפי שניתן לראות, Anthropic מוסיפה הערה בתחתית התשובה לפיה הקישורים עשויים להיות לא מדויקים או לא מעודכנים. יפה מצידם. החלטתי להעמיד את קלוד על טעותו.

עכשיו הוא מתנצל עד עמקי נשמתו. עכשיו הוא נזכר שבעצם הוא לא היה צריך להמציא. הוא מצטער.

הבינה המלאכותית הג'נרטיבית נמצאת בראשית דרכה ויש מצב ש"הזיות" מהסוג הזה יפתרו או יהפכו לנדירות יותר (אם כי יש על כך מחלוקת). העניין הוא שבינתיים הן כאן והן כאן בגלל שהטכנולוגיה נמצאת בחיתוליה והיא עמוסה בבאגים, בבעיות ובמוזרויות שהמפתחים לא תמיד יודעים לפענח וכנראה גם מתקשים לנכש.

האם זה אומר שצריך להפסיק את הפיתוח של המערכות האלו? לא. האם זה אומר שצריך להפסיק את השימוש בהן? גם לא. אבל נדמה לי שזה אומר שצריך להרגיע את כל אלו שמתופפים על תופי הטם-טם ומודיעים לכל העולם שמי שלא יצטרף למהפכה הזו ממש עכשיו, ממש הרגע, הרגע הזה ממש, יישאר מאחור.

אל תיתנו למתלהבים האלו להלחיץ אתכם. או שהם כסילים מוחלטים או שהם מנסים למכור לכם משהו.