שלום כולם, וברוכים הבאים לאלישע והזוויות, עונה 2 פרק 16. היום ה-31 בדצמבר 2025, יא טבת תשפ”ו, ואנחנו ממשיכים בשלהי העונה השניה, ועסוקים בהשלכות של מה שראינו לאורך העונה על החיים עצמם.
לפני שנתחיל, אני חושב שאני חייב לפחות לציין שעבר הרבה זמן מאז הפרק האחרון. אז אכן, כך היה, ומגיעה לכם, המאזינים, התנצלות על כך שנטשתי אתכם למספר חודשים ללא פרק של “זוויות”. אין לי תירוץ טוב מלבד זה שהחיים דורשים את שלהם, והפעם היו דרישות גבוהות ומאתגרות. אין מה לדאוג, כן? הן היו מאתגרות בקטע חיובי. בכל אופן, חזרתי,ואני מקווה שעד הפרק הבא לא יעבור כל כך הרבה זמן. גם אזכיר לכולם שיש אתר אינטרנט לפודקאסט! יש גם ערוץ טלגרם, ומוזמנים לכתוב לי גם במייל… כרגיל.
בפעם הקודמת התמקדנו באותנטיות, בעובדה שיש דברים שאנו מעריכים דווקא בגלל שהם נוצרו על ידי בני אדם, ושאם אותם תוצרים יגיעו ממקור סינתטי, כלומר שבינה מלאכותית תייצר אותם, הם יהיו שווים בעינינו פחות. היום אני רוצה לעבור ולדבר על המקרים שבהם כל שחשוב הוא התוצאה הסופית, המוצר המוגמר, ולא הדרך שבו הוא נוצר. נניח, רכב אוטונומי, רובוט ביתי שמהיום והלאה ישטוף את הכלים עבורנו, או אולי הדוגמה המוכרת לרבים מכם, כתיבת קוד במקום המתכנת האנושי המוכר.
בתור מצע לדיון, אני רוצה לקחת הרצאה שנתן לפני כשנה, בנובמבר 2024, דניאל שרייבר - מנכ”ל חברת ההייטק למונייד. הוא דיבר בכנס שעסק בעתיד ה-AI והאנושות. הוא פתח את ההרצאה עם שקף שבו שלוש סעיפים, שלוש קביעות על המציאות שמובילות למסקנות מרחיקות לכת:
כל משרה שאפשר לעשות בזום, AI יעשה (יותר טוב ו)באלפית המחיר
כל מעסיק יחליף כל בן אדם ב-AI ככל שזה ישפר תוצאות עסקיות
תוך 5-10 שנים AI יהיה יותר טוב מבני האדם בהכל
המסקנה המתבקשת, כשמחברים את שלושת האמירות הללו יחד, היא שתוך 10 שנים אין עבודה לכל מי שעבודתו אפשרית דרך הזום, כלומר, בעצם, אלו שהעבודה שלהם היא ניהול ידע ואינפורציה ולא משהו פיזי. כדי לכבוש את העולם הפיזי, רובוטים יצטרכו להמשיך ולהשתפר ברמת השליטה המוטורית, אבל לא נראה שמישהו חושב שיש דברים בתחום המוטורי שלא נוכל לפתור בסופו של דבר. כלומר, לדעתו בעצם אפשר להתחיל לספור לאחור את הזמן עד שלבני האדם אין כל יתרון על פני המכונות.
בהמשך ההרצאה שלו הוא ניסה להביא דוגמאות שימחישו שלשם אנחנו הולכים, וסיים בקביעה ש”אנחנו צריכים להתכונן לעולם של אבטלה מסיבית, מבנית, ובלתי הפיכה, ואני לא חושב שזה חייב להיות דיסטופיה”. הנה, בואו תאזינו קצת:
“יש משהו, מכנה משותף מרתק בין אוטופיה ודיסטופיה: בשניהם אף אחד לא צריך לעבוד. הרמב”ם לפני קרוב לאלף שנה כתב כך על חזון אחרית הימים:
“באותם הימים יהיה נקל מאד על בני האדם למצוא את מחייתם, עד שבעמל מועט שיעמול האדם יגיע לתועלת גדולה, ויארכו חיי האדם גם כן, לפי שכשיסורו הדאגות והיגונות - יארכו ימי האדם” (.
“ובאותו הזמן לא יהיה שם לא רעב ולא מלחמה ולא קנאה ותחרות שהטובה תהיה משופעת הרבה וכל המעדנים מצויין כעפר”
חזון יהודי עתיק מלפני אלף שנה, חזון ימות המשיח, שבעמל מועט אנחנו נסתדר, לא צריך לעבוד. ומה נעשה עם זמננו החופשי? פיתוח אינטלקטואלי, חיי משפחה, כל מני דברים נהדרים… עצם הרעיון שה-AI יעבוד במקומנו לא בהכרח מכתיב שאנחנו נגיע לעולם אוטופי… [השאלה הזו] נענית על ידי מדיניות: מדיניות ממשלה מדיניות חברה, המדיניות תקבע… השאלה היא איך אנחנו מגיבים… ההבדל בין אוטופיה לדיסטופיה אינו האם המכונות יחליפו אותנו, זו השאלה האם הם יעבדו במקומנו או עבורנו, וזו כבר שאלה של מדיניות.”
אז, זה החזון שלו. חזונות זה דבר זול, בסופו של דבר. הנייר, ההרצאה וגם הפודקאסט סובלים הכל. בסוף השאלה היא - האם הוא צודק בשלושת ההנחות שלו?
בתור התחלה, שווה לציין שעברה שנה ארוכה מאז ההרצאה הזו, ויש לנו קצת יותר נסיון עם AI וממילא גם יכולת לאמוד קצת יותר טוב האם לשם העולם הולך. עוד לפני שנשאל אם יש בעיות בשלושת ההנחות שלו, שווה לבדוק מה קורה בשטח. שרייבר דיבר כאן על טווח של 5-10 שנים, אז כמובן שלא נוכל להוכיח אם הוא צדק או טעה בינתיים, אבל בהחלט היו אנשים מרכזיים שסיפקו לנו חזונות של אופטימיות טכנולוגית שלא התקיימו. כך לדוגמה באותו חודש נובמבר ששרייבר הרצה בו, אמר סאם אלטמן שהוא מתרגש לקראת 2025, השנה שבה יגיע AGI, אינטלגנציה מלאכותית כללית. אבל לאחר שהשיק את GPT-5 באוגוסט השנה הוא נאלץ להודות שהוא אינו AGI, ובכלל - הציע שכדאי להפסיק להשתמש במונח הזה… באופן דומה, באפריל 2025 הושק פרוייקט מעמיק בשם “AI 2027“ שזמין לקריאה באינטרנט, שחזה שעד סוף 2027 נקבל אינטלגנציה מלאכותית שתדיח את האדם מראש הפירמידה האינטלקטואלית; אבל הנה, עוד לפני ש-2025 הצליחה להסתיים הודיע נציג של הפרוייקט, ככה ממש לפני כמה שבועות, שהם מעדכנים את התחזית והתאריך החדש הוא 2030. בהתכתשות הצפויה ברשת X טען אותו נציג, דניאל קוקוטאליו, שגם במאמר המקורי היה כתוב בהערות השוליים שיש טווח טעות מסויים בהערכות שלהם, שהם מעולם לא טענו שזה בוודאות מגיע ב-2027… אבל בואו נגיד, מעניין מאד שבחרתם לקרוא לפרוייקט כולו AI-2027. קצת מצחיק לטעון שהזזת התאריך ב-3 שנים זה לא משהו משמעותי בעיניכם.
אפשר באותו האופן גם לבחון אם ה-AI התחיל לגרום לאבטלה רבתי, ובינתיים התשובה היא שלילית. גם באיזורים שבהם מנסים לקדם אותו באופן מסיבי, כמו בעולם התכנות, המתכנתים עדיין מוצאים עבודה ובמשכורת מכובדת. נכון, יש קשיים בעיקר עבור ג’וניורים שמתחילים בעולם הזה, אבל בינתיים אנחנו לא בעולם שבו לא צריך מתכנתים כי AI החליף אותם. האמת, יש לי תיזה שלמה על תחום התכנות, אז אני אשאיר את הדיון לגביה וההשלכות הרחבות גם למקצועות אחרים, לפרק הבא.
במילים אחרות, לצד התקדמות טכנולוגית אדירה ויכולות חדשות שאנחנו מקבלים כל הזמן מעמק הסיליקון, נכון לכתיבת שורות אלו אין לנו שידוד מערכות מלא, כזה שמשוקף בחזון של שרייבר. העובדה הזו יכולה וצריכה לעודד אותנו לבחון את הטיעון של שרייבר מקרוב ולראות אם הוא פספס משהו באופן החשיבה שלו. כיוון שברור שעבודות זום אפשר לעשות עם AI ברמת העקרון, וכיוון שברור שמעסיקים יעשו אוטומציה ממוכנת לדברים כשזה רק מוזיל עלויות ומשפר את המצב העסקי, נראה שהסעיף השלישי הוא הסעיף המעניין: זה שקובע שה-AI יהיה טוב יותר מבני האדם בהכל בעוד 5-10 שנים.
שרייבר נתן להרצאה שלו את הכותרת: “החייזרים נחתו, והם מוכנים לעבוד בחינם”. החייזרים המדוברים הם כמובן מערכות הבינה המלאכותית, ואת השימוש בהקבלה לחייזרים אנחנו מכירים מדבריו של יובל נוח הררי. גם אצלו נראה שהדימוי החייזרי נועד לומר - הם בדיוק כמונו מבחינת היכולות, אפילו שהם לא נראים ככה כלפי חוץ. האינטלגנציה אותה אינטלגנציה, בשורשה, ולכן כשהם יעברו סף מסויים של עוצמה הם יהיו מסוגלים להחליף אותנו בהכל, כמו אוסף של מהגרי עבודה שמציפים מדינה קטנה.
הדימוי המאניש של המכונות, כאילו אנחנו והם פועלים על אותה הסקאלה, מאד מפתה. אלא שלשמחתי, למאזיני הפודקאסט הקטן שלנו אמורה להיות בשלב הזה עמדה קצת מורכבת יותר ביחס לקביעה שהמחשבים באמת חושבים באותו המובן שבו אנחנו חושבים, ומכאן גם יעלו ויבואו התובנות שיבארו איפה, אולי, מצויים החורים בטיעון של שרייבר. אני יודע שעברו כמה פרקים וגם, לצערי, מספר חודשים מאז ששמעתם את הדברים העיקריים שעלו בדיון שלנו, אז על הדרך אני גם אחזור, בקצרה, על חלק מהדברים שכבר שמעתם כדי שהטיעונים יזרמו ויהיו מובנים.
והערה אחרונה: בפרק הזה אני רוצה להתמודד מול החזון של שרייבר, שאני סקפטי לגביו, דווקא מהמקומות הטכניים יותר. יש גם זוויות נוספות להתמודדות הזו, סיבות נוספות להיות סקפטי, אבל הפרק הזה יצא ארוך מהרגיל גם ככה. אז קבלו כאן את התמונה החלקית, ועד סוף העונה אני אנסה להכניס גם את הזוויות הללו כדי להשלים את התמונה. זהו, זו הכוכבית שאני שם לפרק הזה, ועכשיו אפשר לגשת לתוכן עצמו.
לאורך העונה שקלנו בגדול שתי אפשרויות: שהמכונות חושבות, או שהן מציגות חיקוי משכנע של חשיבה. אם אנחנו סבורים שמדובר רק בחיקוי, אז בהחלט לא נופתע לגלות שיהיו מקומות שהטיעון של שרייבר לא יחזיק מים. אבל לפני שנגיע לזוויות הללו אני רוצה להבהיר שאפילו אם נאמר שמדובר במכונות חושבות, כיבוש שוק העבודה על ידי המכונות לא יעבור חלק בכלל, שכן אפילו אם החייזרים מוכנים לעבוד בחינם, הם אמורים לשרת את בני האדם, ולשם כך הם צריכים להבין את בני האדם. הדימוי החייזרי דווקא יכול, בהקשר הזה, לשרת אותנו: חייזרים שהיו מגיעים ממאדים, אפילו שהיו אינטלגנטים מאד, היו נתקלים בהרבה בעיות בקבלה לעבודה בגלל שהם היו מסתכלים על העולם אחרת מאשר בני האדם, ועושים טעויות גדולות עם מחירים גדולים לצידן, טעויות שבני אדם לעולם לא היו עושים. רק כאשר בני האדם היו מסוגלים לבטוח בהם שלא יעשו טעויות הזויות מהסוג הזה אפשר היה להתחיל להעביר אליהם אחריות משמעותית.
מי שמסתכל בשוק כיום, רואה שאכן, זו אחת הבעיות המשמעותיות ביותר שמונעות הטמעה של המערכות הללו. נסתכל, לדוגמה, על מכוניות אוטונומיות. מכונית אוטונומית תמיד מרוכזת בכביש, יש לה ריפלקסים על-אנושיים, והיא לעולם לא נוהגת תחת השפעת סמים או אלכוהול. ההשפעה הדרמטית שיכולה להיות להם על הבטיחות בדרכים היא דבר שאי אפשר לזלזל בו: על פי הדאטה ששחררה חברת waymo, לגביי הסטטיסטיקות של כ-100 מיליון מייל של נהיגה ברכבים האוטונומיים שלה, כשמשווים את כמות התאונות שלהם לתאונות של בני אדם באותם כבישים ובאותם זמנים, מגלים שהם הורידו את כמות התאונות ה-80% ואת כמות התאונות עם פגיעה חמורה - ב-91%.
אבל, בו זמנית שהפנס שלנו מאיר על הטוב שבמהפכה ההדרגתית בשוק הרכב, הוא גם מטיל צל שמסתיר את הבעיות החדשות שהמהפכה הזו תביא איתה. רכבים אוטונומיים משמעו רכבים שגם נוסעים ללא כל נהג, ומה קורה כאשר אין נהג אנושי ברכב? כך, באוגוסט 2023, נתקעה מכונית אוטונומית במלט שהיה בשלבי התייבשות על כביש בסן פרנסיסקו, כי היא לא זיהתה את השילוט שסימן שיש שם מלט טרי. המכוניות הללו מאד רגישות לשילוט, ופחות למציאות הפיזית שסביבן.
כך במאי 2024 נהגה מכונית שכזו לתוך אזור שבו סללו כביש מחדש, ואז עצרה במקום. בסרטון מהאירוע, שאני מצרף כאן כמובן כמו כל הלינקים שאני מזכיר, רואים את הבעיה שצצה מיד לאחר מכן: איך גורמים לה לצאת מהאיזור? הרי כל המקום מסומן בשלטים וחסימות. הפועלים שעבדו שם ניסו דברים כמו לנופף לה, לצעוק עליה, להזיז את הקונוסים שסביבה וכן הלאה, בהצלחה מועטת בלבד. ולסיום יש את הסיפור מדצמבר 2024 של מישהו במדינת אריזונה שנתקע בתוך מכונית שכזו כשהחליטה להסתובב שוב ושוב סביב כיכר ללא הפסקה במשך דקות ארוכות, בגלל איזה באג שהיה לה בניווט. בסרטון שומעים אותו מדבר עם התמיכה הטכנית של החברה - waymo - ומבקש שיעצרו את הרכב, אבל הנציגה אומרת לו שהיא לא מצליחה והוא נשאר תקוע שם לעוד זמן מה.
אז סוג הטעויות שהמכוניות הללו עושות הוא שונה וייחודי, ובעיקר - לא צפוי, ומה שאין לו גבולות גזרה ברורים גם קשה להטמיע במסגרת החברה האנושית באופן רחב. בהקשר הזה, שווה לחשוב על זה כמו על חוזה: כל כלי שאנחנו מאמצים לארגז הכלים שלנו ביום-יום מגיע עם חוזה לא כתוב מולנו: מה אפשר לעשות איתו, מה אי אפשר, ומה הבעיות שיכולות לצוץ במהלך השימוש. פטיש יכול להישבר, ומסמר יכול להתעקם, אבל פטיש לעולם לא יתפוצץ לי בידיים או ישבות שביתה איטלקית עד שאשלם לו שכר מינימום. שילוב AI מטיפוס GPT בתוך החברה האנושית הוא מקרה שבו עדיין לא הצלחנו למסגר את הפעילות המשולבת עם AI בתוך חוזה מסודר, ולכן אנחנו לא מסוגלים להשתמש בו באופן רחב.
בעיית החוזה מתבררת כשחושבים על כך שרכבים אוטונומיים הם כאלו שגם מתקשרים באופן תדיר עם כל מני גורמים דרך האינטרנט. אתם תרצו, לדוגמה, לקבל עדכוני תוכנה כדי לשפר את ביצועי הרכבים שלכם, נכון? אז עכשיו תחשבו על הסכנה שבהשתלטות עויינת על הרכבים הללו על ידי מתקפת סייבר. דמיינו שאפילו רק 1% מכל הרכבים בישראל נהיים רכבים אוטונומיים והאקרים מצליחים להשתלט עליהם מרחוק או להזריק להם וירוס, או אפילו שיהיה באג בעידכון התוכנה האחרון שהצי הרכבים הזה קיבל. בבוקר בהיר אחד כל הרכבים הללו מתחילים להשתולל על הכביש ללא כל סיבה וללא כל יכולת לשלוט עליהן מתוך הרכב. המאפיין הרלוונטי כאן הוא העובדה שנהיגה אוטונומית פותחת את הדלת לשליטה ריכוזית מרחוק על ציי רכבים אדירים. אתם קונים את הרכב וחושבים שהוא שלכם, כשבעצם אתם כל הזמן חולקים את השליטה עליו עם החברה שייצרה אותו והקוד שרץ שם בפנים. מסע דמיוני בעקבות ההשלכות של אירוע שכזה עוזר להבהיר את המחירים שיש למהפכה, לצד הרווחים האדירים שהיא מבשרת עליהם.
נושא הטעויות והסטיות של הבינה המלאכותית מההתנהגות הרצויה הוא רב-פנים, ולא נוכל להקיף כאן את כל הצדדים שלו. אני אסתפק בזווית נוספת ואחרונה, והוא סביב בעיית ההזיות, hallucinations, של הבינה המלאכותית. בדוגמאות שהבאנו לעיל במכוניות האוטונומיות, הטעות של המערכת היתה ניכרת לעין בקלות, אבל חלק מהבעיות הגדולות ביותר שאנו מכירים בשימוש בבינה מלאכותית צצות במקומות שהן טועות ואין לנו דרך פשוטה ומהירה לזהות שמדובר בטעות. מהסיבה הזו אנחנו שומעים חדשות לבקרים, לדוגמה, על עורכי דין שמשתמשים בבינה מלאכותית בכתיבת המסמכים שהם מגישים לבתי המשפט, ומקבלים על הראש מהשופטים כשמתברר שהם מצטטים פסקי דין מומצאים לגמרי, ואף מחוייבים לשלם קנסות בשל כך. אם זה היה קל לזהות כפייק, לא היינו מקבלים סיפורים כאלו.
בעיית ה”הזיות” הזו מוכרת כבר מאז ש-GPT יצא ב-2022, והיא מתרחשת בכל שימוש של הכלים הללו ללא יוצא מן הכלל. חברות ההייטק מנסות לחפות על החוסרים הללו בכל מני דרכים, ובהדרגה הן מורידות את אחוזי ההזיות של המערכות שלהם, אבל עם כל המאמצים הללו - הסיכוי הזה עדיין אינו 0 וגם לא יהיה אפס. במידה מסויימת, ככל שהכלים הללו נהיים חזקים יותר, כך גם הטעויות שהם עושים קשות יותר לזיהוי, ויכולות להביא לנזקים גדולים יותר. אז אמנם קשה שלא להתלהב ממערכת אוטומטית שמייצרת כתבי תביעה, קוד מחשב או מאמר לעיתון עם 99% דיוק בלוגיקה שלה. אבל הבעיה היא, כפי שרואים מהסיפור של עורכי הדין שהזכרתי, שמספיקה טעות משמעותית אחת כדי שכל כתב התביעה יזרק לפח. אז אולי ה-AI עושה פחות טעויות מבני האדם, אבל סוג הטעויות שהוא עושה הוא לעיתים דראסטי והרסני לאין שיעור ממה שבני אדם היו עושים באותה סיטואציה. חייזרים, כמו ש-שרייבר אמר. שאלו את עצמכם - אם המחשבון האישי שלכם היה טועה פעם אחת מכל 100 פעמים, האם הייתם מוכנים להסתמך עליו בבחינת הבגרות? כדי לחשב את המשכורות של העובדים שלכם?
נסכם את הנקודה הזו ונאמר: אכן, זו אחת הסיבות העיקריות שהטכנולוגיה של הבינה המלאכותית מתעתעת כל כך, שקל לרכב על גלי הפאתוס לתקופה ארוכה לפני שמתנגשים בקיר המציאות. בשימוש היומיומי האישי שלנו אנחנו נדהמים ממה שהיא יכולה לעשות, כי אנחנו מתמקדים ב-99% הטובים. לעומת זאת, כשמנסים לבצע שינויים מערכתיים בחברה עסקית, או כשרוצים לבנות משהו עם וודאות שהוא יעבוד כמו שצריך, ה-1% החסרים - חסרים באמת, ומונעים את השינוי הגדול. הפער בין שתי החוויות יכול באמת לבלבל אזרחים, מעסיקים, משקיעים וכל מי שמנסה להתכונן לעתיד.
עד כאן, זווית אחת. אפשר לקרוא לה - בעיית האמון, כלומר הקושי שלנו לסמוך על המערכות הללו שיעשו את מה שאנחנו מצפים מהם לעשות. מכאן ועד סוף הפרק אני רוצה לדבר על בעיה אחרת, בעיית האימון. בכך אני מתכוון לקושי של חברות ה-AI להמשיך ולשפר את המודלים באותו הקצב שראינו בשנים האחרונות. הרי התחזית של שרייבר דיברה על 5-10 שנים, והוא כנראה דמיין קצב התקדמות מסויים. ראינו כבר שאנשי AI 2027 התחילו לדחות את תאריך השתלטות המכונות, ואני רוצה שנבין קצת מדוע זה ככה. הדברים, אני שמח לבשר, טמונים בדברים שראינו במהלך העונה: התלות הקריטית של מערכות ה-AI בדאטה אנושי. ומעבר לכך - בדקות הקרובות אני אנסה לשכנע אתכם שיש מערכות של היזון חוזר בין החברה האנושית והמחשבים, feedback loop באנגלית, שגורמות לכך שהמחשבים לא יכולים לפרוץ הרבה מעבר למה שהחברה האנושית מסוגלת לו. מכך נגזרת לא רק ההאטה בפיתוח AI חזק יותר, אלא גם נרמזת אולי תקרת זכוכית שה-AI יתקשה לפרוץ, לפחות בכלים המוכרים לנו היום, וממילא גם הרחקת היום שבו ה-AI משתלט על כל העבודות שלנו.
ובכן - התלות בדאטה אנושי. בואו נזכר בדברים שאמרנו בעבר, בעיקר בפרקים 6 ו-7. התלות הזו התבטאה באופן בולט בעיקרון המנחה של התעשייה מאז תחילת הגל הנוכחי, הידוע בשמו “חוקי סדר גודל”, scaling laws. העיקרון הזה קבע שעוצמת הכלים תהיה פרופורציונלית, בין השאר, לכמות הדאטה שנזרים לתוכן. הדאטה האנושי הפך לדלק שמניע את מנועי הבינה המלאכותית המודרניים, וחברות הטכנולוגיה יצאו במירוץ אחרי איסוף הדאטה. וכיוון שהיום, כל הדאטה הזמין פומבית באינטרנט נכנס כבר לאימון אצל כל החברות הגדולות, בשלב הקרוי pre-training, חסר דלק במנועי החברות, דלק שהן זקוקות לו כדי להגיע ל-AI חזק יותר.
הפתרון האמיתי לחוסר הזה הוא, כנראה, לבנות מערכות בינה מלאכותית אחרות, כאלו שלא צריכות כל כך הרבה דאטה כדי להשתפר. כאלו שמסוגלות לחלץ הרבה יותר ערך מכמות דאטה קטנה יותר. אבל נכון לעכשיו, אנחנו עדיין בשלב החיפוש אחר הדרך לבנות מכונה שכזו. לדוגמה, קחו את הדברים שאמר איליה סוצקובר, איש הייטק ישראלי-קנדי שתרם רבות לעולם הבינה המלאכותית, בראיון שעשה לאחרונה:
“…עד 2020, מ-2012 עד 2020, היינו בעידן המחקר. עכשיו, מ-2020 עד 2025, היינו בעידן סדרי הגודל… אבל עכשיו הסקאלה כל כך גדולה… האם האמונה היא שאם פשוט תגדיל את הסקאלה פי 100, הכל יתהפך? אני לא חושב שזה נכון. אז חזרנו לעידן המחקר שוב, רק עם מחשבים גדולים.”
כלומר, הגישה של הסתמכות על שדרוג סדרי הגודל מוצתה, ועכשיו צריך שוב לחשוב ולבנות תשתיות חלופיות, וזה יקח זמן. כמה שנים לפחות.
אולי יש מכם שקצת תוהים על מה שאמרתי כאן. הרי האינטרנט איננו דבר סטטי, וכל יום מתווספים לו עוד ועוד תכנים. למה שלא פשוט נמשיך לשאוב את הדאטה החדש משם? כאן אנחנו מגיעים לתבנית ההיזון החוזר שהזכרתי, שכן בדיקה מעמיקה תגלה לנו שהדלק החדש שמיוצר כל יום - הדאטה החדש שנשפך לאינטרנט - הדלק הזה הוא באיכות ירודה יותר מבעבר, והאשם המרכזי בכך הוא ה-AI עצמו! אני מזכיר לכם את מה שדיברנו עליו בפרק השביעי, שכשמנסים לאמן AI על כמויות גדולות של דאטה סינתטי, כזה שמיוצר על ידי AI ולא על ידי בני אדם, המודלים מתדרדרים באיכותם באופן משמעותי. כיוון שכך, תחשבו על ההשלכות של העובדה הבאה: על פי מחקרים שונים, ההערכה היא שעד חצי, 50% מהתוכן שמיוצר היום באינטרנט, נוצר על ידי כלי בינה מלאכותית (כמובן שטיעונים שכאלו קשים לביסוס אמיתי כי הם נשענים על היכולת לזהות תוצרי AI באופן אוטומטי, וזה דבר לא קל בכלל, אבל גם אם המספר האמיתי הוא 25% זה עדיין מטורף כשחושבים על זה). יוצא שדווקא הצמיחה המטאורית של ה-AI מאז 2022 גרמה לכך שב-2025 הרבה יותר קשה להתקדם איתו לשלב הבא, כי התוצרים שלו עצמו מזהמים את המשאבים שהוא צריך כדי לצמוח, כמו מי ביוב שמוזרמים לירקון והופכים את הנהר ללא ראוי לשתיה.
כדי לסגור את הדיון על בעיית האימון, כלומר הקשיים בשדרוג ה-AI לרמה שיוכל להחליף בני אדם, אני רוצה להאיר עוד זווית על הנושא. זווית-על, אם תרצו, כזו שמאתגרת את התיזה של שרייבר ממקום יותר מהותי, ומתוך ראייה היסטורית.
כשאני שומע אנשים מדברים כמו שרייבר על העתיד, אני נזכר באחד המשחקים שאפשר למצוא באולמות באוליניג, שקוראים לו באנגלית Whack-a-mole, ובתרגום חופשי ויבש - “הכה בחפרפרת”. במשחק הזה יש לכם פטיש מפלסטיק, אתם עומדים איתו מול לוח עם הרבה חורים, כשחפרפרות מבצבצות לרגע מתוך אחד החורים ומיד מסתתרות בהם שוב. המטרה של המשחק - להכות בכמה שיותר חפרפרות לפני שהן חוזרות להסתתר. המשחק מדמה את המאבק המתמיד וחסר הסיכוי של בעל גינת ירקות נגד החפרפרות שיכולות לצוץ מכל מקום באדמה שלו. בכל פעם שהוא חושב שהוא תפס את כל החפרפרות, הוא מגלה עוד כמה חורים שהן חפרו וחייב לרדוף אחריהן שוב. כך, במשחק המדובר, השחקן משחק על נקודות, אבל ברור שתמיד יהיו יותר חורים ויותר חפרפרות מכדי שהוא יוכל להכות בכולן. דימוי נוסף לזה הוא כמו בסרטים המצויירים, כשיש סירה עם המון חורים והדמות המצויירת מנסה לשים אצבע בחורים כדי שלא לטבוע. תמיד, אבל תמיד, יש יותר חורים מאצבעות.
המשחק הזה הוא, לטעמי, משל לא רע למצב שלנו עם ה-AI. כל חפרפרת ניתנת, באופן פרטני, לטיפול מהיר וקטלני - אבל כמות החפרפרות והחורים היא כל כך גדולה שאין דרך לטפל בכולן. וכך גם עם ה-AI: יתכן בהחלט שכמעט ואין גבול לדברים שאפשר לפתור עם AI, אבל כל בעיה ספיציפית דורשת עדיין השקעה של זמן ומשאבים כדי לפתור אותן, ואלו בהחלט מוגבלים. אז כן, בכל שנה יכול להיות שנכבוש עוד טריטוריה שנוכל להעביר את האחריות עליה למכונות, אבל לטריטוריה הזו עדיין יהיו גבולות, ומעבר לגבולות הללו יהיו אזורי הספר שבני אדם יצטרכו לפעול בהם.
קל לראות את הרעיון הזה בפעולה אם פשוט תחשבו על האדם הקדמון. מה שהאדם הקדמון היה צריך לדאוג ממנו היה חיות טורפות, למצוא אוכל כדי להתקיים, איך לא למות מהרעלת מזון ואיך להתחמם בחורף ולהתקרר בקיץ. 99% מהבעיות שהוא דאג מהם כבר נפתרו עבור האדם המודרני הממוצע, אבל אנחנו איכשהו מצליחים למצוא דברים חדשים לגמרי למלא את חיינו, להדאיג אותנו ולהעסיק אותנו.
כדי להאמין בחזון של שרייבר, מה צריך לומר? שה-AI יוכל להאיץ את הפתרונות באופן כזה שלא נצטרך הרבה זמן מהרגע שבעיה תצוץ ועד שהפתרון יגיע. תגיע בעיה, מישהו יתן פרומפט לאיזה AI, ומיד הבעיה נפתרת ולכן אין צורך בבני אדם כדי לעבוד עליה. אבל האם זה המצב? ראייה נכוחה של המציאות תוביל אותנו, אני חושב, לחשוד בחזון הזה. קודם כל, יש סיבות שדיברנו עליהן בעונה שלנו שמבססות את החשד: כדי לפתור בעיות חדשות אנחנו נצטרך לאסוף דאטה חדש, ולהחליט על פונקציות מטרה חדשות, והדברים הללו לוקחים זמן. הזמן שהם לוקחים, חשוב לציין, הוא זמן אנושי, של בני אדם שצריכים להגדיר מה בדיוק הם מנסים לפתור ומהם גבולות הגזרה של הפתרון הרצוי. ממילא חזרנו שוב לצורך בבני אדם מוכשרים וחכמים שיעבדו על פתרון הבעיות הללו, ושוב יש לאנשים עבודה. דיברנו על האתגרים הללו בפרקים על פונקציית המטרה, אז לא נחזור עליהם כאן.
אבל מעבר לבעיות הספיציפיות כאן, שווה שנלמד גם מההיסטוריה, וספיציפית מתופעה הידועה בכינוי “הפרדוקס של ג’בונס”. על פי ההגדרה בויקפדיה, הפרדוקס הזה מתאר את המצב המעניין והמפתיע לעיתים, שבו “כאשר מגדילים את יעילות השימוש במשאב, השימוש בו עולה מהר יותר מקצב ההתייעלות”. לדוגמה, כאשר אנחנו מצליחים להוריד מחירים למוצר מסויים, יכולנו לחשוב שאולי עכשיו, סך כל ההוצאות של הציבור על המוצר הזה ירד. אם עד היום אנשים בעיירה קנו 100 יחידות במחיר של 100 ש”ח ליחידה, והורדנו את המחיר ל-80, אז נראה ירידה של 20% בהוצאות. אבל בפועל, הפרדוקס קובע שנראה דווקא עלייה בהוצאות הכוללות על המוצר. מדוע? כי הירידה הפרטנית של עלות המוצר מאפשרת לאנשים לקנות את המוצר הזה יותר פעמים, בהקשרים שבעבר היו נמנעים ממנו בגלל העלות הגבוהה. פעמים רבות, הורדת המחיר הפרטני מגבירה את הביקוש הכולל, ובאופן חזק יותר מהאפקט של הירידה במחיר.
אם נחזור עכשיו לעולם ה-AI, אפשר לומר כך: שרייבר אולי צודק שהרבה בעיות יפתרו בעולם של AI משוכלל, ויפתרו מהר יותר. אבל אתם יודעים מה יקרה אז? בעיות שבעבר לא הפריעו לנו מספיק כדי שנעסוק בהם או נשקיע בהם מחשבה, זמן וכסף, יהפכו להיות בעיות ששווה לעסוק בהם, כי העלות תהיה נמוכה מספיק. במושגי החפרפרות אפשר לומר, שככל שנוכל להכות בחפרפרות מהר יותר, פתאום נשים לב לכך שיש חורים קטנים נוספים בגינה, וקהילות של חפרפרות קטנות יותר שעולות מתוכן ושצריך להכות גם בהן.
לסופר ריק קוק, שנפטר ב-2022, מיוחסת האמירה הבאה:
“תכנות כיום הוא מרוץ בין מהנדסי תוכנה השואפים לבנות תוכניות חסינות-טיפשים גדולות וטובות יותר, לבין היקום המנסה לייצר טיפשים גדולים וטובים יותר. נכון להיום, היקום מנצח”.
על משקל אותה אמירה, הייתי אומר - מאז ומתמיד ישנו מרוץ בין טכנולוגיה המנסה לספק את כל צרכי האנושות, לבין היקף הצרכים המתרחבים והולכים של האנושות. ועד כה, תמיד תחושת הצורך ניצחה. כדי שהחזון של שרייבר יתקיים, נראה שלא רק הטכנולוגיה צריכה להשתפר, אלא האופי של הקיום האנושי, הזהות האנושית, יצטרך להשתנות, ולהפוך לכזה שלא רואה עוד דברים שצריכים שיפור, שיכולים לשדרג את היום-יום שלו. אין זה פלא, כנראה, שהוא מצטט את הרמב”ם המדבר על ימות המשיח. כדי לקבל את החזון שלו, חייבים להאמין שעם מספיק טכנולוגיה, אפשר באמת להרוות את הצמאון האנושי לעוד ועוד, ועוד.
אז, זהו להיום! כן, אני יודע - היה פרק ארוך! אבל נעלמתי לכמה זמן אז היה לי הרבה מה לומר. אני מקווה שנהניתם מהפרק, ושאתגרי האמון והאימון שדיברנו עליהם כאן עזרו לכם להבין שה-AI אינו כל יכול. שווה גם לציין שבשניהם ראינו שכיוון שהאדם הוא במרכז, ככל שהכלי הזה ששמו AI יהיה עוצמתי יותר, כך ידרשו יותר בני אדם אינטלגנטים שמסוגלים למנף אותו ולהשתמש בו בתבונה. ואתם - כן אתם - תהיו בני האדם הללו! אז יאללה, להתחיל לעבוד!
ומה הלאה? שאלה מצויינת. אני חושב שנותרו לנו שני פרקים עד לסוף העונה, אולי שלושה. הפרק האחרון יהיה פרק הסיום עם כמה מחשבות כלליות ומסקנות מהעונה כולה. את הפרק הבא אני רוצה להקדיש לדיון במקרה פרטי של הטיעונים בפרק הזה, ולעשות זום-אין לעולם הקידוד בעזרת כלי AI. כיוון שזה עולם שאני מכיר מקרוב, אני חושב שזה יהיה מעניין לראות אותו כמקרה בוחן למה שקורה באופן כללי בכל מקום שמנסים להכניס AI כדי שיחליף בני אדם. גם למי שלא מכיר תכנות, אני אתן מספיק הקשר כדי שתבינו גם מה קורה שם, גם מדוע זו אחת החזיתות הפעילות והמעניינות ביותר, וגם מדוע לדעתי, תחזיות האימים סביב מה ש-AI יעשה שם לא יתגשמו, ועדיין נצטרך מתכנתים בהווה ובעתיד.
עד כאן להיום. להתראות, ביי…









