כמה זמן זה ייקח

בשבועות האחרונים אני עסוק בפרויקט שקשור במספרים. מספרים הם הפשטה, הם ייצוג של משהו אחר. המספר 1,400 הוא ייצוג. המספר 239 הוא ייצוג. אבל מה קורה כאשר ממירים את המספרים האלו למשהו אחר, נניח, זמן?

כאשר אדם נרצח באירוע בטחוני מקדישים לסיפור חייו משהו כמו 5 דקות במהדורת טלוויזיה. 5 דקות שאמורות לסכם חיים שלמים הם כלום – ממש שום דבר, אבל בטלוויזיה אין זמן. נותנים לך 5 דקות.

אז כמה זמן היינו יושבים מול המסך ושומעים על חייהם של 1,400 אנשים שנרצחו בשבת השחורה? כמה זמן היינו יושבים מול עוד סיפור ועוד סיפור ועוד סיפור עד שכל הסיפורים היו מסופרים, עד שהיה נגמר הזמן? 116 שעות ו-40 דקות שהם 4 ימים, 20 שעות ו-40 דקות.

היינו צריכים לשבת 4 ימים 20 שעות ו-40 דקות רצופות מול המסך כדי לשמוע על חייהם, אהבותיהם, פועלם, משפחתם, חבריהם, תחביביהם ומעשיהם של 1,400 אנשים שנרצחו בשבת השחורה.

היינו צריכים להוסיף עוד כמעט 20 שעות נוספות רק כדי לשמוע על חייהם של החטופים. היינו צריכים להתיישב ב-12 בצהריים מול הטלוויזיה ולקום ממנה רק ב-8 בבוקר ביום שלמחרת, ורק אז היינו מכירים את חייהם של כל 239 בני אדם שנחטפו, לכל אחד מהם הקדישו 5 דקות בלבד.

את המחדל הזה, את האירוע הזה, את הדבר הבלתי נתפס הזה חושב בנימין נתניהו, חושבת ממשלת הימין מלא-על-מלא הנוכחית, חושבים 64 האפסים שיושבים על הכיסאות שלהם ובוזזים את קופת המדינה – את הדבר הזה הם חושבים שהם יוכלו לשרוד כאילו שום דבר לא קרה.

על הייפ, ביבי והבנת הנקרא

נדמה ששבוע אחרי שהתפרסם הטקסט שלי במוסף "הארץ", שעוסק בהייפ סביב מערכות הבינה המלאכותית החדשות, אפשר לסכם את האירוע.

ראשית, אני ממליץ לכם לקרוא אותו, אם אפשר את כולו, אפשר למצוא אותו כאן, אבל בקיצור נמרץ אומר שהטענה שלי היתה זו: בעוד שהטכנולוגיה מרשימה והיא עומדת במרכזה של מהפכה אמיתית, יש מי שדואגים לפמפם סביבה הייפ מופרך, מוגזם ולא מוצדק. האנשים האלו עושים את זה מאינטרסים שונים (כלכליים, משפטיים, אישיים – באמת שלא חסר) ובכך הם גורמים נזק גם לניסיון לנהל דיון אמיתי סביב השאלות שהטכנולוגיה החדשה מעלה וגם סביב כל מי שמנסה לחשוב עליה ברצינות ואפילו להשתמש בה.

כצפוי, התגובות שקיבלתי לטקסט הזה היו מעורבות. לצד אלו שכתבו לי, באופן אישי, באופן עקיף או בתגובות "הגיע הזמן שמישהו יגיד את זה!", קיבלתי גם תגובות אחרות, חלקן מצחיקות, חלקן מעוררות מחשבה וחלקן מצביעות על קושי אמיתי בהבנת הנקרא.

מגיבים רבים ניסחו תגובה בנוסח "ChatGPT היה כותב את זה טוב יותר" או "לא יכולת לבקש מ-ChatGPT לכתוב את הטקסט הזה בקיצור?" או "אני אתן ל-ChatGPT לקרוא את הטקסט הזה" וכן הלאה. היסטרי. ללמדכם שבגרעין הרעיון סביב אימון מודלים של בינה מלאכותית יש אבחנה מדויקת: אנשים הם תבניתיים, בנאליים ולא מקוריים. לא פלא שכל כך קל למערכות האלו למצוא תבניות שחוזרות על עצמן. רובנו תבנית שלמרות שהיא משכפלת את עצמה, היא בטוחה שהיא הדבר הכי גדול שקרה לעולם מאז המצאת המזגן.

תגובה אחרת היתה שאני מזלזל בבינה המלאכותית וביכולותיה ושאני אצטער על הטקסט הזה, שאני עוד אראה שמדובר במהפכה אמיתית. כל שאני יכול לומר על זה הוא ש"יש אנשים שלא יודעים לקרוא".

הנה מה שכתבתי:

יש להדגיש: ההתפתחויות בתחום הבינה המלאכותית הן אמיתיות, הפריחה שממנה נהנית התעשייה, אחרי שנים של קיפאון, היא אמיתית. המערכות החדשות מתבטאות בשפה חופשית וטבעית, מיישמות רעיונות בשפות תכנות, מתרגמות תיאורים מופשטים לכדי ציורים או צילומים, מחלצות ומסכמות טיעונים מרכזיים ממסמכים מורכבים, מצליחות לזהות תבניות חבויות — אלו, ורבים נוספים, הם הישגים מרשימים שמבוססים על פריצות דרך מדעיות וטכנולוגיות במגוון של תחומים — ופריצות דרך נוספות נמצאות מעבר לפינה.

אנחנו חיים בתקופה שמזמינה שאלות אמיתיות בסוגיות אמיתיות — מוסריות, משפטיות, פילוסופיות, טכנולוגיות ועסקיות. דברים ישתנו, הטכנולוגיה תשתנה, אנחנו נשתנה — זה מה שקורה כשטכנולוגיה ואנשים נפגשים, אבל בדומה למהפכות קודמות גם הפעם יהיו מי שירוויחו ומי שיפסידו, ולכן כדאי לשים לב למי יש אינטרס ומי מרוויח מהפצת התרגשות מעושה, ולחלופין, מזריעת פאניקה ואימה.

זה נכון שהפסקה הזו מגיעה אחרי הסבר ארוך (אולי מעט ארוך מדי) שמבהיר מדוע יש הרבה אוויר חם סביב הדיון בבינה המלאכותית אבל שני הדברים יכולים להיות נכונים בעת ובעונה אחת: יש הרבה אוויר חם סביב הדיון בבינה מלאכותית ובינה מלאכותית היא התפתחות טכנולוגית אמיתית.

באותה המידה, אפשר לטעון ש-OpenAI היא חברה פורצת דרך ובמקביל חברה שמפיצה הייפ, אפשר לטעון שבינה מלאכותית תוביל לשינויים משמעותיים בעולם ובמקביל שהיא לא תפתור כל בעיה חברתית, תרבותית, עסקית או משפטית. שני הדברים יכולים להיות נכונים בעת ובעונה אחת והאחד לא מבטל את השני. למרות זאת, נראה שלפחות לחלק מהאנשים קשה להחזיק את שתי המחשבות האלו יחד: זה או אפס או אחד, אתה או בעד או נגד, אתה או איתנו או איתם – אין מקום או סבלנות לטיעון קצת יותר מורכב.

מהבחינה הזו למרות שהטקסט עוסק בבינה מלאכותית, התגובות עליו מצביעות על סוג השיח שהידרדרנו אליו. ערד ניר המליץ על הטקסט שלי לעוקבים שלו בטוויטר ומישהו הגיב לו שהוא (ערד ניר) ממליץ על טקסט שיוצא נגד הבינה המלאכותית (מה?) בגלל שביבי הוא בעד בינה מלאכותית וערד ניר נגד ביבי. כן, אנחנו שם.

אז כן, אין ספק שבעוד חמש, עשר, חמש-עשרה שנה, אנחנו נראים פיתוחים מדהימים שנשענים על בינה מלאכותית – אבל מי טען אחרת? אין ספק שהבינה המלאכותית תשפיע על מקצועות, על האופן שבו אנחנו עובדים, על האופן שבו אנחנו מבצעים פעולות יומיומיות – אבל מי טען אחרת? אין ספק שמהפכת הבינה המלאכותית היא מהפכה אמיתית בניגוד ל"מהפכות" כמו "מהפכת המטאוורס" (עובדה שעליה כתבתי במלים אלו ממש) – אבל כל זה לא אומר שהדיון הנוכחי, זה שמתקיים כרגע סביב בינה מלאכותית, סובל מהרבה מאוד הייפ.

כך למשל עניתי לאדם אחד שכתב לי באופן אישי: "אני מתפעל מהטכנולוגיה – אני הרבה פחות מתפעל ממי שמסביר לי, ואז מתעקש להסביר לי שוב, ואז ממש עומד על כך שאני צריך להתפעל ממנה הרבה יותר. כאשר זה קורה (וזו לא הפעם הראשונה שזה קורה), אני בדרך כלל עוצר ושואל: למה שמישהו יטרח לגרום לי להתפעל ממשהו שגם כך מעורר פליאה?".

הסוג של השלישי של התגובות הצביע על כמה נקודות מעניינות, חלקן החמצתי וחלקן החלטתי לא להכניס מטעמי מקום וקוהרנטיות. למשל, בסוף הטקסט שלי טענתי כך:

לא צריך להיות חוזה עתידות כדי לדעת איך כל זה יסתיים, כל שצריך לעשות הוא להיזכר איך מחזורי ההייפ גוועים: אחרי הציפיות הבלתי מציאותיות מגיעה הנפילה, ואז מתברר שהטכנולוגיה לא מסוגלת לפתור כל בעיה, שהיא לא תמיד אמינה, שהיא די יקרה, ובזמן שהיא פותרת בעיה אחת היא יוצרת בעיה אחרת, חדשה ובלתי צפויה. ברגעים האלו, של הנחיתה על קרקע המציאות, השרלטנים עוברים לפמפם את הדבר הבא, בעוד ששאר האנשים מבינים שלמרות מה שסיפרו להם, הישועה לא תגיע מהטכנולוגיה החדשה.

אני עומד מאחורי מה שכתבתי אבל מה שהחמצתי כאן הוא שבסוף ההייפ מתרחש גם תהליך של אימוץ המוני של הדברים שעובדים, של הדברים האמיתיים. בסוף ההייפ (לפחות בחלק מהמקרים) מתרחש שינוי אמיתי כיוון שבסופו אפשר להפריד בין המציאות לבין ההגזמות. היה נכון לכתוב את זה.

הטקסט שכתבתי רחוק מלהיות ממצה או מושלם אבל המטרה העיקרית שלו היתה לעורר דיון ומחשבה סביב מה שנתפס כמשהו שאי אפשר לדבר עליו כי הוא כל כך ברור מאליו, כל כך בקונצנזוס, כל כך עובדה גמורה. מצד אחד, המטרה הושגה ומצד שני התגובות עליו לימדו אותי עד כמה בימים אלו כל נושא הוא בסך הכל עוד במה לדיון מוקצן, חסר ניואנסים ואלים, במלים אחרות, לדיון על ביבי.

ספרו לנו כמה יהיה נפלא

כנס שדרות לחברה וחינוך יתקיים בנובמבר 2023 וראשי הכנס פרסמו קול קורא – אני נתקלתי בו בעיתון "הארץ" – שבו הם מזמינים מרצים, מדריכים ומשתתפים אחרים להציע רעיונות להרצאות שיוצגו בכנס. התמה המרכזית, כך נכתב במרכז הקול הקורא, היא "חינוך וחברה בעידן הבינה המלאכותית".

"מאז שהבינה המלאכותית פרצה לחיינו היא אינה יורדת מהכותרות", נכתב בקול הקורא, "ומעלה סוגיות רבות". לצד "עתיד החינוך ומגמות בעידן הבינה המלאכותית" (ניסוח שאומר, בעצם, שום דבר ממש) ו"השפעות על תחומי החיים השונים" (ללמדכם, שבכל פעם שאתם חושבים שאי אפשר למצוא ניסוח טוב יותר ל"שום דבר ממש", תמיד תוכלו להתאמץ קצת ואז תמצאו ניסוח מוצלח הרבה יותר ל"שום דבר ממש"), מוצגות שתי סוגיות נוספות:

  1. כיצד ניתן להיעזר בכלי הבינה המלאכותית על מנת להתקדם ולגשר על פערים בחברה ובחינוך.
  2. כיצד ניתן לרתום את הטכנולוגיה החדשה לטובת הכלל?

מה אפשר ללמוד מהניסוח הזה?

ראשית אפשר ללמוד שכמו כל קול קורא, המנסחים רוצים לפתוח את הכנס לכמה שיותר פונים ולכן שתי "הסוגיות" הראשונות הן לא סוגיות כלל אלא יותר קריאה כללית: "אנחנו מחפשים מישהו שידבר על משהו שקשור איכשהו למשהו שאיכשהו יעניין אותנו" – וזה בסדר.

דווקא הניסוח של הסוגיות האחרונות מקפל, לדעתי, את האופן שבו רבים חושבים, ממסגרים ועוסקים בבינה מלאכותית. המסגור הזה קובע שאין צורך לעסוק בבעיות שקשורות בבינה מלאכותית, בעיות שמתחילות בשם עצמו ("בינה מלאכותית") ממשיכות ביישומים השונים של המערכות השונות ובאופן שבו הן פועלות, בדרך שבה הן עשויות להשפיע עלינו ועל האופן שבו אנחנו תופשים את העולם, בדרך שבה אנחנו חושבים על מושגים כמו "תלמיד", "בית-ספר", "הוראה", "מורה" או "חינוך", בדרך שבה צריך להתמודד עם בעיות שכבר כעת אנחנו ערים להן כמו הטיות, אפליה, ייצוג וגיוון, שלא לדבר על כל הבעיות שאנחנו עדיין לא ערים להן, ואפילו בנזקים אפשריים שהמערכות האלו עשויות לגרום.

אנחנו, בכנס לחברה וחינוך, אנחנו לא מבקשים לעסוק לא ב"חברה" ולא ב"חינוך". אנחנו מבקשים לעסוק באוטופיה, אנחנו מבקשים לעסוק בהייפ, אנחנו מבקשים שתספרו לנו כמה מערכות הבינה המלאכותית יהיו נפלאות וגם איך זה יקרה. איך בעזרת המערכות האלו החינוך יהיה טוב יותר, יעיל יותר, מעניין יותר, עמוק יותר, מוצלח יותר, נגיש יותר – איך נגשר על הפערים.

אל תעשו לנו מצברוח, אל תגידו לנו שיהיו קשיים, אל תספרו על הבעיות או על הדברים שעשויים להשתבש. אנחנו רוצים שתמכרו לנו אשליות. חלק מהאשליות האלו יתבססו על המצאות ממש, על דמיון מודרך שבינו ובין המציאות אין דבר, אבל זה לא משנה. אנשים באים כל הדרך לבאר שבע לא בשביל לשמוע שיכול להיות רע. הם יודעים שיכול להיות רע; הם בבאר שבע. בואו תספרו להם איך הבינה המלאכותית תהיה מעולה ותפתור להם את כל הבעיות בחיים, את כל הבעיות בחברה ובחינוך.

אין לי בעיה עם דיון ביתרונות של מערכות בינה מלאכותית – יש להן יתרונות משמעותיים ושווה לדון בהן. יש לי בעיה עם קריקטורה של דיון, עם דיון שהמסקנה שלו נקבעה מראש ("כיצד ניתן להיעזר בכלי הבינה המלאכותית") ובעיקר יש לי בעיה עם תפישה חד-ממדית ושטוחה שמזמינה חשיבה שמבוססת על משאלות לב, אשליות וכזבים ממש.

מעבר לעובדה שזה מרוקן מתוכן את הכנס החשוב הזה, זה גורם נזק לעצם העיסוק בנושא. זה מזמין אכזבות ותסכולים ומסתיר את הבעייתיות שמתלווה להופעתה של כל טכנולוגיה חדשה, בוודאי טכנולוגיה משמעותית כמו בינה מלאכותית.

העיקר שזה חדשני

הסיפור הגדול של עולם הטכנולוגיה של שנת 2023 הוא הבינה המלאכותית הג'נרטיבית וסיפורים גדולים מובילים להשקעות גדולות. אחת החברות שזכו להשקעות גדולות היא Anthropic שהוקמה על ידי שני יוצאי חברת OpenAI.

Anthropic מוכרת בעולם כחברה שמנסה לפתח בינה מלאכותית אחראית, נחמדה ולא מזיקה. קווין רוס, כתב "הניו-יורק טיימס", כתב עליה פרופיל קצר לאחר שבילה בחברה כמה שבועות ודיבר עם העובדים שלה. בטקסט שלו הוא מתאר כיצד כמעט כל המרואיינים שלו דיברו איתו על כמה בינה מלאכותית היא דבר מסוכן, עד כמה הם מתקשים לישון בלילה וגם – כמובן – עד כמה הם משקיעים מאמץ בלהפוך את הבינה המלאכותית שלהם, את "קלוד", לבינה מלאכותית אחראית, מועילה וטובה.

Anthropic מנסה להחזיק את המקל משני הקצוות: מצד אחד אנחנו מפתחים את "קלוד", בינה מלאכותית חדשנית (כמובן שחדשנית) וחזקה (ברור) ומצד שני אנחנו משקיעים מאמצים ניכרים כדי לפתח בינה מלאכותית טובה ולא מרושעת.

המסר הזה מבקש להתכתב עם שני המחנות הקולניים שממלאים את שדה הראשים המדברים בעולם הבינה המלאכותית. מצד אחד מחנה הפסימיסטים שסבור שבינה מלאכותית תוביל לקץ האנושות ומצד שני מחנה האופטימיסטים שטוען שמי שלא מחבק עכשיו ומיד וללא היסוס כלי בינה מלאכותית הוא "דוחה חדשנות", "מיושן", "שונא טכנולוגיה", "לודיט" וכל זבל העופות הזה.

השאלה האם לכל ההבטחות האלו יש כיסוי. ב-Anthropic מסבירים שהם חיכו עם ההשקה של המוצר שלהם כי הם בדקו אותו, כי הם אחראים. מעניין. החלטתי להתכתב על קלוד בעצמי ולבדוק אותו אבל מהר מאוד גיליתי שהוא זמין רק בארה"ב ובאנגליה. אז קפצתי רגע לארה"ב (באמצעות VPN) וניסיתי שוב. הוא מאוד מנומס קלוד, מאוד.

אחרי כמה שאלות ראשוניות שאלתי אותו מיהו יובל דרור.

כמו שאפשר לראות, מסתבר שאני מדען מחשב וסגן נשיא למחקר ופיתוח בחברת Anthropic "החברה שיצרה אותי", הסביר לי קלוד. קיבלתי את הדוקטורט שלי במדעי המחשב מאוניברסיטת סטנפורד והקמתי את Anthropic יחד עם שני מייסדים נוספים.

ביקשתי קישורים, מראי מקום למידע הפנטסטי הזה. קלוד נענה בשמחה.

נכנסתי לקישורים האלו. באף אחד מהם אין מידע על יובל דרור. זה לא שיש בהם מידע על יובל דרור אחר. אין בהם מידע על אף יובל דרור ולמעשה חלק מהקישורים האלו מומצאים לחלוטין ומובילים לשגיאה 404. באופן משעשע למדי, הקישור למחקר שקלוד הפנה אליו הוא של קבוצה של חוקרים, אף אחד מהם לא נקרא "יובל דרור", אבל אחד מהם הוא פרופסור מור נעמן, שהוא חבר שלי, הוא למד איתי בשכבה בבית הספר היסודי! עולם קטן.

כפי שניתן לראות, Anthropic מוסיפה הערה בתחתית התשובה לפיה הקישורים עשויים להיות לא מדויקים או לא מעודכנים. יפה מצידם. החלטתי להעמיד את קלוד על טעותו.

עכשיו הוא מתנצל עד עמקי נשמתו. עכשיו הוא נזכר שבעצם הוא לא היה צריך להמציא. הוא מצטער.

הבינה המלאכותית הג'נרטיבית נמצאת בראשית דרכה ויש מצב ש"הזיות" מהסוג הזה יפתרו או יהפכו לנדירות יותר (אם כי יש על כך מחלוקת). העניין הוא שבינתיים הן כאן והן כאן בגלל שהטכנולוגיה נמצאת בחיתוליה והיא עמוסה בבאגים, בבעיות ובמוזרויות שהמפתחים לא תמיד יודעים לפענח וכנראה גם מתקשים לנכש.

האם זה אומר שצריך להפסיק את הפיתוח של המערכות האלו? לא. האם זה אומר שצריך להפסיק את השימוש בהן? גם לא. אבל נדמה לי שזה אומר שצריך להרגיע את כל אלו שמתופפים על תופי הטם-טם ומודיעים לכל העולם שמי שלא יצטרף למהפכה הזו ממש עכשיו, ממש הרגע, הרגע הזה ממש, יישאר מאחור.

אל תיתנו למתלהבים האלו להלחיץ אתכם. או שהם כסילים מוחלטים או שהם מנסים למכור לכם משהו.

ברונו לאטור מת

לפני כמה שנים נקלעתי כמעט במקרה לבית קברות בברלין וגיליתי שקבור בו הרברט מרקוזה לו הקדשתי כמה שיעורים בסמינר המצטיינים שאותו העברתי. למעשה זה בית קברות של אנשי תרבות נוספים. גם פרידריך הגל קבור בו, גם ברטולט ברכט. כשסיפרתי את הסיפור הזה לסטודנטים שלי אמרתי להם "כל הסילבוס שלנו קבור שם!". כולנו צחקנו.

זה מצחיק כי האנשים האלו, מרקוזה, הגל, ברכט, הם אנשים שחיו ומתו לפני תקופתנו אבל מה עושים עם אנשים שהם חלק מהסילבוס, שהם נכס צאן-ברזל אינטלקטואלי, אנשים שהקדשת להם פרק בסקירת הספרות בעבודת הדוקטורט שלך. מה עושים כאשר יצא לך לשמוע אותם בכנס, בהרצאה, מה עושים כאשר הם מתים? זה כבר פחות מצחיק ויותר שובר-לב.

ברונו לאטור היה סוציולוג, אנתרופולוג ופילוסוף צרפתי ורק במהלך סוף השבוע האחרון גיליתי שהוא מת לפני כשבועיים. הוא אחד האנשים החשובים בדיסציפלינה שבה התאהבתי, שנקראת "מדע, טכנולוגיה וחברה", ולמרות שכמעט ולא השתמשתי בתיאוריה שלו בעבודת הדוקטורט שלי, אי אפשר היה שלא להתפעל מהמקוריות שלה, מהתנופה והתעוזה שלה ומההשפעה האינטלקטואלית שלה.

ברונו לאטור (1947-2022)

לאטור ושותפיו פיתחו גישה המכונה Actor-Network Theory או בקיצור ANT, שממוטטת את ההפרדה בין "סוכנים אנושיים" ל"סוכנים לא אנושיים". תחת זאת, טען לאטור, העולם מורכב מרשתות שבתוכן פועלים במשותף סוכנים מכל מיני סוגים.

בעבודת הדוקטורט שלי כתבתי:

בספרו על לואי פסטר, התייחס לאטור אל מצעי תרביות הבקטריות ואל החוואים (אותם היה צריך לשכנע כי יש צורך בתהליך הפיסטור) כשחקנים בעלי השפעה שווה. (מישל) קאלון תיאר את הדרך בה ניסו דייגים ומדענים לביית צדפות ובמהלכו נותחו הסוכנים האנושיים לצד הצדפות והשחפים תוך דגש על שימוש באותו מילון מונחים. במקרה אחר הכניס (מייקל) לואו לרשימת השחקנים הרלוונטיים את "האוקיינוס", "זרמי המים" ו"הרוח".

העבודות האלו זכו לביקורות נוקבות. רבים טענו שהמתודה של לאטור בלתי יעילה, מבלבלת ושגויה ושהיא מעניקה לסוכנים טכנולוגיים או "לא-אנושיים" מעמד אונטולוגי הדומה למעמד שניתן להם בדטרמיניזם הטכנולוגי.

אם לומר את האמת, גם אני מצאתי את ANT כתיאוריה שקשה להבין אותה או ליישם אותה. היא נראתה לי יותר כתרגיל אינטלקטואלי מאשר משהו שניתן להשתמש בו. לזכותו של לאטור ייאמר שהוא עצמו כתב ש-ANT אינה מוצלחת כמסגרת תיאורטית. "מלכותי תמורת מסגרת תיאורטית! מאוד מרגש", הוא מצטט את עצמו באחד מספריו – האהוב עליי ביותר – בשיחה (דמיונית, כך נדמה לי) שניהל עם סטודנט מיואש. "אני מבין את המצוקה שלך אבל לא, ANT היא חסרת תועלת לשם כך".

גם הניסיון ללמד אותה קשה – הן למי שמלמד אותה והן למי שמנסה להבין אותה. זה לא בגלל שהתיאוריה עצמה קשה אלא בגלל שנקודת המוצא שלה שוברת מוסכמות רבות שאנחנו מתייחסים אליהן כמובנות מאליהן.

הנה דוגמה מוצלחת שמוצגת במאמר שהופיע ב-AEON, ממנו למדתי שלאטור מת.

על פי לאטור לעובדות מדעיות יש "קריירה". למשל, בשלב מסוים אזבסט נחשב חומר בטוח, בלתי מזיק, יציב ושאינו נדלק ומשום כך היה חומר מבוקש בעולם הבנייה; הוא הפך לחלק מהעולם שלנו. אבל עובדת היותו חומר בטוח התנגשה עם עובדות חדשות שהגיעו מעולם הרפואה ושהראו את הקשר בינו ובין סוג מסוים של סרטן. תעשיות שמייצרת אזבסט נתבעו ואז בבית המשפט העובדות השונות התגוששו עד שבסופו של דבר עובדה אחת ניצחה וקורבנות האזבסט זכו לפיצויים. האזבסט הודר מהעולם.

הדוגמה הזו ממחישה לא רק איך "עובדות באות לעולם" ומה התפקיד של פוליטיקה וכוח בתוך התהליך המדעי שמציג את עצמו כתהליך ניטרלי ואובייקטיבי שבמהלכו עובדות "מתגלות" (בעוד שבפועל הוא תהליך דינאמי שבו עובדות משתנות, נבנות ומובנות) אלא גם שבתהליך לקחו חלק הרבה מאוד אנשים, ארגונים ומערכות וגם האזבסט עצמו; הוא היה אחד השחקנים.

אני יודע, זה נשמע מוזר, ANT היא תיאוריה מעט מוזרה ולימים לאטור עצמו יטען שהבעיה עם Actor-Network Theory היא המילה Actor, המילה Network והמקף שמחבר ביניהן. ועדיין, היא רחוקה מלהיות חסרת תועלת. כחלק מפיתוח התיאוריה, פותח מילון מונחים חדשים – שבעיניי היה מאוד שימושי – ביחס לאופן שבו דברים מתרחשים בשדה ההבניה החברתית.

ברונו לאטור היה תיאורטיקן יוצא דופן ורב תחומי ובאופן מעט מוזר – בכל זאת, זה לא שהכרנו – הידיעה על מותו, ממש העציבה אותי.