בשנים האחרונות התייצבו מול המצלמות מנהלים בכירים שעבדו בפייסבוק והיכו על חטא. החטא היה שהם פיתחו מערכת שיצאה מכלל שליטה וגרמה לנזק חברתי רחב היקף.
אחרי ששון פרקר, מי שהיה אחד המשקיעים הראשונים בפייסבוק ונשיא החברה, הסביר כיצד פותחה בחברה שיטה שמובילה להתמכרות המשתמשים, הוא ציין: "זה בדיוק מסוג הדברים שהאקרים כמוני יחשבו עליהם, מאחר שאתה מנצל נקודת חולשה בפסיכולוגיה האנושית. אני חושב שהממציאים, היוצרים – אני, מארק (צוקרברג), קווין סיסטרום (מייסד אינסטגרם) – כל האנשים האלו, הבנו את זה, בצורה מודעת, ועשינו את זה בכל זאת".
מנהלים אחרים פחות התלהבו מלקחת על עצמם את תפקיד הג'וקר מבאטמן, ובכל זאת הם הסבירו כיצד המוצרים שפיתחו פוררו את המרקם החברתי. צ'מאת פליהאפיטיה, מי ששימש סמנכ"ל צמיחת משתמשים בפייסבוק, אמר: "לולאות המשוב קצרות הטווח של דופמין שיצרנו, הורסות את האופן שבו החברה עובדת. בלי שיח תרבותי, בלי שיתוף פעולה, מידע כוזב, חתירה תחת האמת. זו לא בעיה אמריקאית, זו בעיה עולמית".
הפרטים אולי שונים, המיקוד מעט אחר אבל הפזמון החוזר של כולם דומה: "לא ידענו עד כמה הכלי שפיתחנו מסוכן, לא ידענו לאילו נזקים הוא עלול לגרום. אנחנו מצטערים. סליחה".
בקשת המחילה הזו מזכירה את ערמת השרים, היועצים והעוזרים האישיים של דונלד טראמפ, ששירתה אותו ואת טירופו ללא בושה ואז, רגע לפני שהאש החלה לכלותם, הם התפטרו ופרסמו "ספר חושפני" כדרך להציג עצמם כמי שהתייצבו באומץ אל מול הכוח והשררה. זו, כמובן, בדיחה.
הנה השאלה המעניינת: מי יהיו הבאים בתור בעולם הטכנולוגיה לבקש סליחה? מי יהיו אלה שב־2030 ואולי עוד קודם לכן, יתייצבו מול המצלמות ויאמרו "לא העלינו על דעתנו, לא חשבנו שזה מה שיקרה. היינו צריכים לחשוב פעמיים, היינו צריכים להבין שהכלי שפיתחנו מסוגל לחולל מהומה. זה יצא מכלל שליטתנו. סליחה".
בעיני התשובה ברורה: המנהלים והמפתחים שעובדים בחברות שבונות מודלים בינה מלאכותית גנרטיביים, כאלו שבאמצעותם ניתן להורות למכונות לייצר יש מאין תמונות, טקסטים, קובצי סאונד ובקרוב גם סרטוני וידאו, המנהלים והמפתחים שעובדים בחברות דוגמת OpenAI, Stable Diffusion ו־Midjourny, אלו שכיום מסתובבים כתרנגולים מנופחים ממזומנים וחשיבות עצמית, הם יהיו הבאים בתור לבקש סליחה.

יש הרבה הייפ סביב החברות שמפתחות יישומים שנשענים על מודלים גנרטיביים. חשבו כמה מילים נשפכו על כלים כמו Dall-E2 או StabilityAI, שמאפשרים לייצר תמונות מרהיבות. אבל זה לא נגמר שם. מטקסט ותמונה הטכנולוגיה קפצה לסאונד וכיום יש טכנולוגיות שמסוגלות לייצר קובצי אודיו שמבוססים על קול של אדם מסוים. תנו להן כמה דגימות קול של המטרה שלכם, הקלידו את המשפט שתרצו שייאמר, ועכשיו לך תוכיח שלא אמרת, שזה לא אתה – שזו בעצם מכונה.
כי בינה מלאכותית מהסוג הזה גם יודעת לכתוב קוד תוכנה. אחרי הכל, אם אתם יכולים לכתוב "סנאי בחליפת חלל" ולקבל תמונה מתאימה, מדוע שלא תכתבו מה אתם רוצים שהתוכנה שלכם תדע לעשות ובתגובה תקבלו חתיכת קוד מתאימה? וזו רק התחלה, כן, זו רק ההתחלה.
חלק מהטכנולוגיות האלו מרשימות, אבל הן עמוסות בבעיות. שנדבר על זכויות יוצרים? שנדבר על אחריות משפטית? שנדבר על הנזקים האפשריים שעשויים להתרחש כתוצאה מפיברוק של טקסטים, קובצי אודיו, תמונות או וידאו? שנדבר על האופן שבו הן עשויות להשפיע על תפישת המציאות שלנו, על היכולת שלנו להבחין בין עובדה להמצאה גמורה? מה בנוגע להשפעה שלהן על תפקידים ומקצועות בשוק העבודה?
חמורה במיוחד היא העובדה שמעצם טיבם הכלים האלה פועלים כ"קופסה שחורה". המפתחים עצמם לא מבינים – אדרבא, לא יכולים להבין – למה התקבלה החלטה מסוימת ומה בדיוק קורה בתוכם. לשם המחשה, מודל חיזוי השפה GPT3, שבקרוב יהפוך למיושן עם השקתו של GPT4, מבוסס על 175 מיליארד פרמטרים. זה הרי בלתי נתפש.
מכאן הדרך קצרה, שלא לומר די בטוחה, להתפתחויות והשפעות שלא ניתן לחזות אותן מראש, ומכאן הדרך קצרה ודי בטוחה להופעה עתידית של מנהלים ומפתחים שישפילו מבט ויאמרו בהפתעה גמורה: "תבינו, לא ידענו עד כמה הכלי שפיתחנו מסוכן, לא ידענו לאילו נזקים הוא עלול לגרום. אנחנו מצטערים. סליחה".
(מגזין TheMarker, פורסם ב-19.12.2022)
כתיבת תגובה