על הייפ, ביבי והבנת הנקרא

נדמה ששבוע אחרי שהתפרסם הטקסט שלי במוסף "הארץ", שעוסק בהייפ סביב מערכות הבינה המלאכותית החדשות, אפשר לסכם את האירוע.

ראשית, אני ממליץ לכם לקרוא אותו, אם אפשר את כולו, אפשר למצוא אותו כאן, אבל בקיצור נמרץ אומר שהטענה שלי היתה זו: בעוד שהטכנולוגיה מרשימה והיא עומדת במרכזה של מהפכה אמיתית, יש מי שדואגים לפמפם סביבה הייפ מופרך, מוגזם ולא מוצדק. האנשים האלו עושים את זה מאינטרסים שונים (כלכליים, משפטיים, אישיים – באמת שלא חסר) ובכך הם גורמים נזק גם לניסיון לנהל דיון אמיתי סביב השאלות שהטכנולוגיה החדשה מעלה וגם סביב כל מי שמנסה לחשוב עליה ברצינות ואפילו להשתמש בה.

כצפוי, התגובות שקיבלתי לטקסט הזה היו מעורבות. לצד אלו שכתבו לי, באופן אישי, באופן עקיף או בתגובות "הגיע הזמן שמישהו יגיד את זה!", קיבלתי גם תגובות אחרות, חלקן מצחיקות, חלקן מעוררות מחשבה וחלקן מצביעות על קושי אמיתי בהבנת הנקרא.

מגיבים רבים ניסחו תגובה בנוסח "ChatGPT היה כותב את זה טוב יותר" או "לא יכולת לבקש מ-ChatGPT לכתוב את הטקסט הזה בקיצור?" או "אני אתן ל-ChatGPT לקרוא את הטקסט הזה" וכן הלאה. היסטרי. ללמדכם שבגרעין הרעיון סביב אימון מודלים של בינה מלאכותית יש אבחנה מדויקת: אנשים הם תבניתיים, בנאליים ולא מקוריים. לא פלא שכל כך קל למערכות האלו למצוא תבניות שחוזרות על עצמן. רובנו תבנית שלמרות שהיא משכפלת את עצמה, היא בטוחה שהיא הדבר הכי גדול שקרה לעולם מאז המצאת המזגן.

תגובה אחרת היתה שאני מזלזל בבינה המלאכותית וביכולותיה ושאני אצטער על הטקסט הזה, שאני עוד אראה שמדובר במהפכה אמיתית. כל שאני יכול לומר על זה הוא ש"יש אנשים שלא יודעים לקרוא".

הנה מה שכתבתי:

יש להדגיש: ההתפתחויות בתחום הבינה המלאכותית הן אמיתיות, הפריחה שממנה נהנית התעשייה, אחרי שנים של קיפאון, היא אמיתית. המערכות החדשות מתבטאות בשפה חופשית וטבעית, מיישמות רעיונות בשפות תכנות, מתרגמות תיאורים מופשטים לכדי ציורים או צילומים, מחלצות ומסכמות טיעונים מרכזיים ממסמכים מורכבים, מצליחות לזהות תבניות חבויות — אלו, ורבים נוספים, הם הישגים מרשימים שמבוססים על פריצות דרך מדעיות וטכנולוגיות במגוון של תחומים — ופריצות דרך נוספות נמצאות מעבר לפינה.

אנחנו חיים בתקופה שמזמינה שאלות אמיתיות בסוגיות אמיתיות — מוסריות, משפטיות, פילוסופיות, טכנולוגיות ועסקיות. דברים ישתנו, הטכנולוגיה תשתנה, אנחנו נשתנה — זה מה שקורה כשטכנולוגיה ואנשים נפגשים, אבל בדומה למהפכות קודמות גם הפעם יהיו מי שירוויחו ומי שיפסידו, ולכן כדאי לשים לב למי יש אינטרס ומי מרוויח מהפצת התרגשות מעושה, ולחלופין, מזריעת פאניקה ואימה.

זה נכון שהפסקה הזו מגיעה אחרי הסבר ארוך (אולי מעט ארוך מדי) שמבהיר מדוע יש הרבה אוויר חם סביב הדיון בבינה המלאכותית אבל שני הדברים יכולים להיות נכונים בעת ובעונה אחת: יש הרבה אוויר חם סביב הדיון בבינה מלאכותית ובינה מלאכותית היא התפתחות טכנולוגית אמיתית.

באותה המידה, אפשר לטעון ש-OpenAI היא חברה פורצת דרך ובמקביל חברה שמפיצה הייפ, אפשר לטעון שבינה מלאכותית תוביל לשינויים משמעותיים בעולם ובמקביל שהיא לא תפתור כל בעיה חברתית, תרבותית, עסקית או משפטית. שני הדברים יכולים להיות נכונים בעת ובעונה אחת והאחד לא מבטל את השני. למרות זאת, נראה שלפחות לחלק מהאנשים קשה להחזיק את שתי המחשבות האלו יחד: זה או אפס או אחד, אתה או בעד או נגד, אתה או איתנו או איתם – אין מקום או סבלנות לטיעון קצת יותר מורכב.

מהבחינה הזו למרות שהטקסט עוסק בבינה מלאכותית, התגובות עליו מצביעות על סוג השיח שהידרדרנו אליו. ערד ניר המליץ על הטקסט שלי לעוקבים שלו בטוויטר ומישהו הגיב לו שהוא (ערד ניר) ממליץ על טקסט שיוצא נגד הבינה המלאכותית (מה?) בגלל שביבי הוא בעד בינה מלאכותית וערד ניר נגד ביבי. כן, אנחנו שם.

אז כן, אין ספק שבעוד חמש, עשר, חמש-עשרה שנה, אנחנו נראים פיתוחים מדהימים שנשענים על בינה מלאכותית – אבל מי טען אחרת? אין ספק שהבינה המלאכותית תשפיע על מקצועות, על האופן שבו אנחנו עובדים, על האופן שבו אנחנו מבצעים פעולות יומיומיות – אבל מי טען אחרת? אין ספק שמהפכת הבינה המלאכותית היא מהפכה אמיתית בניגוד ל"מהפכות" כמו "מהפכת המטאוורס" (עובדה שעליה כתבתי במלים אלו ממש) – אבל כל זה לא אומר שהדיון הנוכחי, זה שמתקיים כרגע סביב בינה מלאכותית, סובל מהרבה מאוד הייפ.

כך למשל עניתי לאדם אחד שכתב לי באופן אישי: "אני מתפעל מהטכנולוגיה – אני הרבה פחות מתפעל ממי שמסביר לי, ואז מתעקש להסביר לי שוב, ואז ממש עומד על כך שאני צריך להתפעל ממנה הרבה יותר. כאשר זה קורה (וזו לא הפעם הראשונה שזה קורה), אני בדרך כלל עוצר ושואל: למה שמישהו יטרח לגרום לי להתפעל ממשהו שגם כך מעורר פליאה?".

הסוג של השלישי של התגובות הצביע על כמה נקודות מעניינות, חלקן החמצתי וחלקן החלטתי לא להכניס מטעמי מקום וקוהרנטיות. למשל, בסוף הטקסט שלי טענתי כך:

לא צריך להיות חוזה עתידות כדי לדעת איך כל זה יסתיים, כל שצריך לעשות הוא להיזכר איך מחזורי ההייפ גוועים: אחרי הציפיות הבלתי מציאותיות מגיעה הנפילה, ואז מתברר שהטכנולוגיה לא מסוגלת לפתור כל בעיה, שהיא לא תמיד אמינה, שהיא די יקרה, ובזמן שהיא פותרת בעיה אחת היא יוצרת בעיה אחרת, חדשה ובלתי צפויה. ברגעים האלו, של הנחיתה על קרקע המציאות, השרלטנים עוברים לפמפם את הדבר הבא, בעוד ששאר האנשים מבינים שלמרות מה שסיפרו להם, הישועה לא תגיע מהטכנולוגיה החדשה.

אני עומד מאחורי מה שכתבתי אבל מה שהחמצתי כאן הוא שבסוף ההייפ מתרחש גם תהליך של אימוץ המוני של הדברים שעובדים, של הדברים האמיתיים. בסוף ההייפ (לפחות בחלק מהמקרים) מתרחש שינוי אמיתי כיוון שבסופו אפשר להפריד בין המציאות לבין ההגזמות. היה נכון לכתוב את זה.

הטקסט שכתבתי רחוק מלהיות ממצה או מושלם אבל המטרה העיקרית שלו היתה לעורר דיון ומחשבה סביב מה שנתפס כמשהו שאי אפשר לדבר עליו כי הוא כל כך ברור מאליו, כל כך בקונצנזוס, כל כך עובדה גמורה. מצד אחד, המטרה הושגה ומצד שני התגובות עליו לימדו אותי עד כמה בימים אלו כל נושא הוא בסך הכל עוד במה לדיון מוקצן, חסר ניואנסים ואלים, במלים אחרות, לדיון על ביבי.

ספרו לנו כמה יהיה נפלא

כנס שדרות לחברה וחינוך יתקיים בנובמבר 2023 וראשי הכנס פרסמו קול קורא – אני נתקלתי בו בעיתון "הארץ" – שבו הם מזמינים מרצים, מדריכים ומשתתפים אחרים להציע רעיונות להרצאות שיוצגו בכנס. התמה המרכזית, כך נכתב במרכז הקול הקורא, היא "חינוך וחברה בעידן הבינה המלאכותית".

"מאז שהבינה המלאכותית פרצה לחיינו היא אינה יורדת מהכותרות", נכתב בקול הקורא, "ומעלה סוגיות רבות". לצד "עתיד החינוך ומגמות בעידן הבינה המלאכותית" (ניסוח שאומר, בעצם, שום דבר ממש) ו"השפעות על תחומי החיים השונים" (ללמדכם, שבכל פעם שאתם חושבים שאי אפשר למצוא ניסוח טוב יותר ל"שום דבר ממש", תמיד תוכלו להתאמץ קצת ואז תמצאו ניסוח מוצלח הרבה יותר ל"שום דבר ממש"), מוצגות שתי סוגיות נוספות:

  1. כיצד ניתן להיעזר בכלי הבינה המלאכותית על מנת להתקדם ולגשר על פערים בחברה ובחינוך.
  2. כיצד ניתן לרתום את הטכנולוגיה החדשה לטובת הכלל?

מה אפשר ללמוד מהניסוח הזה?

ראשית אפשר ללמוד שכמו כל קול קורא, המנסחים רוצים לפתוח את הכנס לכמה שיותר פונים ולכן שתי "הסוגיות" הראשונות הן לא סוגיות כלל אלא יותר קריאה כללית: "אנחנו מחפשים מישהו שידבר על משהו שקשור איכשהו למשהו שאיכשהו יעניין אותנו" – וזה בסדר.

דווקא הניסוח של הסוגיות האחרונות מקפל, לדעתי, את האופן שבו רבים חושבים, ממסגרים ועוסקים בבינה מלאכותית. המסגור הזה קובע שאין צורך לעסוק בבעיות שקשורות בבינה מלאכותית, בעיות שמתחילות בשם עצמו ("בינה מלאכותית") ממשיכות ביישומים השונים של המערכות השונות ובאופן שבו הן פועלות, בדרך שבה הן עשויות להשפיע עלינו ועל האופן שבו אנחנו תופשים את העולם, בדרך שבה אנחנו חושבים על מושגים כמו "תלמיד", "בית-ספר", "הוראה", "מורה" או "חינוך", בדרך שבה צריך להתמודד עם בעיות שכבר כעת אנחנו ערים להן כמו הטיות, אפליה, ייצוג וגיוון, שלא לדבר על כל הבעיות שאנחנו עדיין לא ערים להן, ואפילו בנזקים אפשריים שהמערכות האלו עשויות לגרום.

אנחנו, בכנס לחברה וחינוך, אנחנו לא מבקשים לעסוק לא ב"חברה" ולא ב"חינוך". אנחנו מבקשים לעסוק באוטופיה, אנחנו מבקשים לעסוק בהייפ, אנחנו מבקשים שתספרו לנו כמה מערכות הבינה המלאכותית יהיו נפלאות וגם איך זה יקרה. איך בעזרת המערכות האלו החינוך יהיה טוב יותר, יעיל יותר, מעניין יותר, עמוק יותר, מוצלח יותר, נגיש יותר – איך נגשר על הפערים.

אל תעשו לנו מצברוח, אל תגידו לנו שיהיו קשיים, אל תספרו על הבעיות או על הדברים שעשויים להשתבש. אנחנו רוצים שתמכרו לנו אשליות. חלק מהאשליות האלו יתבססו על המצאות ממש, על דמיון מודרך שבינו ובין המציאות אין דבר, אבל זה לא משנה. אנשים באים כל הדרך לבאר שבע לא בשביל לשמוע שיכול להיות רע. הם יודעים שיכול להיות רע; הם בבאר שבע. בואו תספרו להם איך הבינה המלאכותית תהיה מעולה ותפתור להם את כל הבעיות בחיים, את כל הבעיות בחברה ובחינוך.

אין לי בעיה עם דיון ביתרונות של מערכות בינה מלאכותית – יש להן יתרונות משמעותיים ושווה לדון בהן. יש לי בעיה עם קריקטורה של דיון, עם דיון שהמסקנה שלו נקבעה מראש ("כיצד ניתן להיעזר בכלי הבינה המלאכותית") ובעיקר יש לי בעיה עם תפישה חד-ממדית ושטוחה שמזמינה חשיבה שמבוססת על משאלות לב, אשליות וכזבים ממש.

מעבר לעובדה שזה מרוקן מתוכן את הכנס החשוב הזה, זה גורם נזק לעצם העיסוק בנושא. זה מזמין אכזבות ותסכולים ומסתיר את הבעייתיות שמתלווה להופעתה של כל טכנולוגיה חדשה, בוודאי טכנולוגיה משמעותית כמו בינה מלאכותית.

העיקר שזה חדשני

הסיפור הגדול של עולם הטכנולוגיה של שנת 2023 הוא הבינה המלאכותית הג'נרטיבית וסיפורים גדולים מובילים להשקעות גדולות. אחת החברות שזכו להשקעות גדולות היא Anthropic שהוקמה על ידי שני יוצאי חברת OpenAI.

Anthropic מוכרת בעולם כחברה שמנסה לפתח בינה מלאכותית אחראית, נחמדה ולא מזיקה. קווין רוס, כתב "הניו-יורק טיימס", כתב עליה פרופיל קצר לאחר שבילה בחברה כמה שבועות ודיבר עם העובדים שלה. בטקסט שלו הוא מתאר כיצד כמעט כל המרואיינים שלו דיברו איתו על כמה בינה מלאכותית היא דבר מסוכן, עד כמה הם מתקשים לישון בלילה וגם – כמובן – עד כמה הם משקיעים מאמץ בלהפוך את הבינה המלאכותית שלהם, את "קלוד", לבינה מלאכותית אחראית, מועילה וטובה.

Anthropic מנסה להחזיק את המקל משני הקצוות: מצד אחד אנחנו מפתחים את "קלוד", בינה מלאכותית חדשנית (כמובן שחדשנית) וחזקה (ברור) ומצד שני אנחנו משקיעים מאמצים ניכרים כדי לפתח בינה מלאכותית טובה ולא מרושעת.

המסר הזה מבקש להתכתב עם שני המחנות הקולניים שממלאים את שדה הראשים המדברים בעולם הבינה המלאכותית. מצד אחד מחנה הפסימיסטים שסבור שבינה מלאכותית תוביל לקץ האנושות ומצד שני מחנה האופטימיסטים שטוען שמי שלא מחבק עכשיו ומיד וללא היסוס כלי בינה מלאכותית הוא "דוחה חדשנות", "מיושן", "שונא טכנולוגיה", "לודיט" וכל זבל העופות הזה.

השאלה האם לכל ההבטחות האלו יש כיסוי. ב-Anthropic מסבירים שהם חיכו עם ההשקה של המוצר שלהם כי הם בדקו אותו, כי הם אחראים. מעניין. החלטתי להתכתב על קלוד בעצמי ולבדוק אותו אבל מהר מאוד גיליתי שהוא זמין רק בארה"ב ובאנגליה. אז קפצתי רגע לארה"ב (באמצעות VPN) וניסיתי שוב. הוא מאוד מנומס קלוד, מאוד.

אחרי כמה שאלות ראשוניות שאלתי אותו מיהו יובל דרור.

כמו שאפשר לראות, מסתבר שאני מדען מחשב וסגן נשיא למחקר ופיתוח בחברת Anthropic "החברה שיצרה אותי", הסביר לי קלוד. קיבלתי את הדוקטורט שלי במדעי המחשב מאוניברסיטת סטנפורד והקמתי את Anthropic יחד עם שני מייסדים נוספים.

ביקשתי קישורים, מראי מקום למידע הפנטסטי הזה. קלוד נענה בשמחה.

נכנסתי לקישורים האלו. באף אחד מהם אין מידע על יובל דרור. זה לא שיש בהם מידע על יובל דרור אחר. אין בהם מידע על אף יובל דרור ולמעשה חלק מהקישורים האלו מומצאים לחלוטין ומובילים לשגיאה 404. באופן משעשע למדי, הקישור למחקר שקלוד הפנה אליו הוא של קבוצה של חוקרים, אף אחד מהם לא נקרא "יובל דרור", אבל אחד מהם הוא פרופסור מור נעמן, שהוא חבר שלי, הוא למד איתי בשכבה בבית הספר היסודי! עולם קטן.

כפי שניתן לראות, Anthropic מוסיפה הערה בתחתית התשובה לפיה הקישורים עשויים להיות לא מדויקים או לא מעודכנים. יפה מצידם. החלטתי להעמיד את קלוד על טעותו.

עכשיו הוא מתנצל עד עמקי נשמתו. עכשיו הוא נזכר שבעצם הוא לא היה צריך להמציא. הוא מצטער.

הבינה המלאכותית הג'נרטיבית נמצאת בראשית דרכה ויש מצב ש"הזיות" מהסוג הזה יפתרו או יהפכו לנדירות יותר (אם כי יש על כך מחלוקת). העניין הוא שבינתיים הן כאן והן כאן בגלל שהטכנולוגיה נמצאת בחיתוליה והיא עמוסה בבאגים, בבעיות ובמוזרויות שהמפתחים לא תמיד יודעים לפענח וכנראה גם מתקשים לנכש.

האם זה אומר שצריך להפסיק את הפיתוח של המערכות האלו? לא. האם זה אומר שצריך להפסיק את השימוש בהן? גם לא. אבל נדמה לי שזה אומר שצריך להרגיע את כל אלו שמתופפים על תופי הטם-טם ומודיעים לכל העולם שמי שלא יצטרף למהפכה הזו ממש עכשיו, ממש הרגע, הרגע הזה ממש, יישאר מאחור.

אל תיתנו למתלהבים האלו להלחיץ אתכם. או שהם כסילים מוחלטים או שהם מנסים למכור לכם משהו.

פרידה מ-Reply All

אם אני לא טועה, הפודקאסט הראשון שהאזנתי לו היה זה של Wired, ואם אני לא טועה, זה היה הפודקאסט של Wired בריטניה. זה היה כל כך מזמן שאני אפילו לא זוכר איך קוראים לו. האזנתי לו כאשר רכבתי על אופניים, ואז התחלפו שם המנחים וזה נהיה קצת פחות מוצלח ועזבתי אותו, למעשה עזבתי את כל העניין הזה של פודקאסטים למשך הרבה מאוד שנים.

בראשית 2015, כבר הייתי כמה חודשים בתפקיד דיקאן בית הספר לתקשורת וכמות הנסיעות שלי על הכביש הפכה לפסיכית. נמאס לי להאזין לרדיו וחיפשתי משהו יותר מעניין. התחלתי להאזין לפודקאסטים ו-Reply All היה הפודקאסט הראשון שבחרתי.

הוא היה שונה. אני אפילו לא יודע להסביר מה היה בו שונה אבל הוא היה שונה. זו לא היתה תכנית חדשות (כמו הפודקאסט ההוא, של Wired), הם לא דיווחו על אירועי השעה – הם פשוט סיפרו סיפורים והם עשו את זה בצורה מוצלחת. מפה לשם התחלתי להאזין לעוד פודקאסט ועוד אחד. זה תפס אותי.

אתמול האזנתי לפרק האחרון של Reply All, הפרק שבו הם נפרדו מהמאזינים. הפודקאסט עצמו נסגר.

קשה לומר שהופתעתי. על אף שהאזנתי לכל פרק, בשנים האחרונות משהו שם נשבר. אחד המגישים (Pj Vogt) עזב לאחר איזו שערורייה פנימית ומאוד אמריקאית. לצד המגיש שנותר, אלכס גולדמן, החלו להופיע מנחים מתחלפים שבאופן אישי שעממו אותי. בחירת הנושאים שלהם הפכה יותר ויותר מעצבנת ונדמה היה שהם רוצים להיות בטוחים שהם לא מעליבים אף קבוצה בתוך ארה"ב. מתכנית שעוסקת באינטרנט זו הפכה לתכנית שעסוקה בפוליטיקת הזהויות המעיקה של אמריקה.

Reply All היה באוויר 7-8 שנים וניסיתי לחשוב האם יש איזשהו לקח שאפשר ללמוד מהסגירה שלו. אני לא בטוח שיש וגם אם יש אני לא בטוח שאני נמצא בעמדה המתאימה לנתח אותו. מה שבטוח הוא שקשה לשמור על רמה גבוהה של תוכן במשך תקופה כל כך ארוכה. על אף שעמד לרשותם צוות ענק של כותבים ותחקירנים ומפיקים ועורכים, השחיקה מתחילה לתת את אותותיה. אנשים מתחליפים להתחלף, הקול הייחודי של הפודקאסט משתנה ומאותו הרגע נדמה שקשה לעצור את הסחף.

ועדיין, זה חבל. כאשר הוא היה טוב, הוא היה ממש טוב וכמו תמיד, ה"טוב" הזה מתבטא בסיפור טוב ובדרך מוצלחת לספר אותו. זה, לפחות בעיניי, תמיד המפתח. נורא קל להקים פודקאסט כי זה בחינם, זה פשוט, פותחים מיקרופון, מזמין חבר ומדברים. פודקאסט! בפועל, הפודקאסטים הממש מוצלחים הם אלו שיודעים לספר סיפורים, ולא פעם ב-Reply All, ידעו לעשות את זה מצוין.

אז Reply All סוגרים ואני נפרד מהנסיעות שלי למכללה.

רגע…

הטכנולוגיה כישועה – ביקור מחודש

לאורך ההיסטוריה ניתן למצוא לא מעט הצהרות שערורייתיות בנוגע לכוחה של הטכנולוגיה וליכולתה להביא גאולה לעולם. בפרק הראשון בספר Does Technology Drive History מציע ההיסטוריון האמריקאי מריט רו-סמית', כמה וכמה דוגמאות להצהרות מהסוג הזה שהיו פופולאריות במיוחד במחצית השניה של המאה ה-19. הזכרתי את הספר הזה והצגתי ציטוטים מתוכו בפוסט שכתבתי לפני כמעט 15 שנה, בפברואר 2007, שכותרתו "טכנולוגיה כישועה". הוא עדכני היום כפי שהיה אז.

קשה שלא להתפעל מהכוח של הטכנולוגיה לפתור בעיות אבל כפי שטענתי ב"קוד סמוי", "הגישה הפתרונית" סבורה שטכנולוגיה יכולה לפתור כל בעיה ושכוחה נוגע באינסופי. בפועל, ישנן בעיות רבות שטכנולוגיה לא יכולה לפתור כלל.

ועדיין, אפילו היום, לא חסרים אנשים שמתייחסים לטכנולוגיה כאל סוג של אל, אל כל-יכול, אל שיגאל אותנו מהייסורים שלנו, אל שבכוחו המיטיב יביא את הישועה.

באוקטובר 2021 פורסמה ב"ניו-יורקר" כתבת מגזין מרתקת על תופעת ה-MasterClass, שיעורים מצולמים שמעבירים טובי המומחים מתחומים שונים – מכתיבה ועד בימוי, מטניס ועד משחק, מפיזיקה ועד אסטרונומיה. בניגוד ל-TED אלו לא הרצאות קצרצרות שאמורות להפוך אותך למועמד לזכייה בנובל אבל בדומה ל-TED, היומרה שלהן לשנות את חייך ולהעניק לך "השראה" היא אותה היומרה.

בתוך הכתבה מופיע הציטוט הזה של מארק וויליאמסון, סמנכ"ל התפעול של החברה שאחראית על אותם שיעורים:

אין לי הרבה מה לומר על ההצהרה הזו. מצד אחד היא כמעט קריקטורה על מה שמכונה בשם "אופטימיזם טכנולוגי" ומצד שני היא מייצגת אותה בצורה כל כך מוצלחת שהיא יותר דומה לתמונה מאשר קריקטורה.

אני מתעד אותה כאן כדי שהיא לא תיעלם לי כי ברור לי שמתישהו אחפש דוגמה עדכנית – לא כזו מהמאה ה-19 – להצהרות פומפוזיות, נפוחות מחשיבות עצמית ומחוסרות כל מודעות עצמית, שקשורות בכוחה המיסטי של הטכנולוגיה וזו הצהרה כל כך מוצלחת שלא הייתי רוצה לשכוח אותה.