האם בינה-על מלאכותית תחסל את האנושות? עתיד הבינה המלאכותית P4

אשראי תמונה: Quantumrun

האם בינה-על מלאכותית תחסל את האנושות? עתיד הבינה המלאכותית P4

    ישנן המצאות מסוימות שמדינות עושות על עצמן. אלו הן המצאות שבהן הכל תלוי בלהיות ראשון, וכל דבר פחות יכול להיות איום אסטרטגי ומוותי על הישרדותה של אומה.

    ההמצאות האלה שמגדירות את ההיסטוריה אינן מופיעות לעתים קרובות, אבל כשהן עוצרות, העולם נעצר ועתיד צפוי הופך מעורפל.

    ההמצאה האחרונה כזו הופיעה במהלך הגרוע ביותר של מלחמת העולם השנייה. בזמן שהנאצים תפסו מקום בכל החזיתות בעולם הישן, בעולם החדש, במיוחד בתוך בסיס צבאי סודי מחוץ ללוס אלמוס, בעלות הברית עבדו קשה על נשק שיסיים את כל הנשק.

    הפרויקט היה קטן בהתחלה, אבל אז צמח והעסיק 130,000 עובדים מארה"ב, בריטניה וקנדה, כולל רבים מההוגים הגדולים בעולם באותה תקופה. שם הקוד של פרויקט מנהטן וקיבל תקציב בלתי מוגבל - בערך 23 מיליארד דולר ב-2018 דולר - צבא ההמצאה האנושי הזה הצליח בסופו של דבר ליצור את הפצצה הגרעינית הראשונה. זמן לא רב לאחר מכן, מלחמת העולם השנייה הסתיימה בשני מפץ אטומי.

    הנשק הגרעיני הזה הוביל את העידן האטומי, הכניס מקור אנרגיה חדש לחלוטין, והעניק לאנושות את היכולת להשמיד את עצמה תוך דקות - דבר שנמנענו ממנו למרות המלחמה הקרה.

    יצירת בינת-על מלאכותית (ASI) היא עוד היסטוריה המגדירה המצאה שכוחה (החיובי וההרסני) עולה בהרבה על הפצצה הגרעינית.

    בפרק האחרון של סדרת עתיד הבינה המלאכותית, חקרנו מהו ASI וכיצד החוקרים מתכננים לבנות אחד כזה. בפרק זה, נבחן אילו ארגונים מובילים מחקר של בינה מלאכותית (AI), מה ירצה ASI ברגע שהוא יקבל תודעה דמוית אנוש, וכיצד הוא עלול לאיים על האנושות אם הוא מנוהל בצורה לא נכונה או אם הוא ייפול תחת השפעת משטרים לא כל כך נחמדים.

    מי עובד על בניית בינה-על מלאכותית?

    בהתחשב בכמה משמעותית תהיה יצירת ASI להיסטוריה האנושית וכמה יתרון גדול היא תעניק ליוצרו, אין זה צריך להפתיע לשמוע שקבוצות רבות עובדות בעקיפין על הפרויקט הזה.

    (בעקיפין, אנחנו מתכוונים לעבוד על מחקר בינה מלאכותית שבסופו של דבר תיצור את הראשון בינה כללית מלאכותית (AGI), זה בעצמו יוביל ל-ASI הראשון זמן קצר לאחר מכן.)

    ראשית, כשזה מגיע לכותרות, המובילים הברורים במחקר AI מתקדם הם חברות הטכנולוגיה המובילות בארה"ב ובסין. בחזית ארה"ב, זה כולל חברות כמו גוגל, יבמ ומיקרוסופט, ובסין זה כולל חברות כמו Tencent, Baidu ועליבאבא. אבל מכיוון שחקר בינה מלאכותית זול יחסית לפיתוח משהו פיזי, כמו כור גרעיני טוב יותר, זה גם תחום שגם ארגונים קטנים יותר יכולים להתחרות בו, כמו אוניברסיטאות, סטארט-אפים ו...ארגונים מפוקפקים (השתמש בדמיונך הנבל של בונד את זה).

    אבל מאחורי הקלעים, הדחיפה האמיתית מאחורי מחקר בינה מלאכותית מגיעה מממשלות והצבאות שלהן. הפרס הכלכלי והצבאי של להיות הראשון ליצור ASI הוא פשוט גדול מדי (מתואר להלן) מכדי להסתכן בפיגור. והסכנות בלהיות אחרון אינן מקובלות, לפחות על משטרים מסוימים.

    בהתחשב בגורמים הללו, העלות הנמוכה יחסית של חקר בינה מלאכותית, היישומים המסחריים האינסופיים של בינה מלאכותית מתקדמת והיתרון הכלכלי והצבאי בלהיות הראשונים ליצור ASI, חוקרי בינה מלאכותית רבים מאמינים שיצירת ASI היא בלתי נמנעת.

    מתי ניצור בינת-על מלאכותית

    בפרק שלנו על AGIs, הזכרנו כיצד סקר של חוקרי AI מובילים האמין שניצור את ה-AGI הראשון בצורה אופטימית עד 2022, ריאלית עד 2040, ופסימית עד 2075.

    וגם אצלנו פרק אחרון, תיארנו כיצד יצירת ASI היא בדרך כלל תוצאה של הוראה ל-AGI לשפר את עצמו באופן אינסופי ומתן לו את המשאבים והחופש לעשות זאת.

    מסיבה זו, בעוד ש-AGI עשוי להימשך עד כמה עשורים להמציא, יצירת ASI עשויה לקחת רק כמה שנים נוספות.

    נקודה זו דומה למושג של 'סחף מחשוב', שהוצע ב נייר, שנכתב במשותף על ידי הוגי הבינה המלאכותית המובילים לוק מולהאוזר וניק בוסטרום. בעיקרון, אם יצירת AGI תמשיך לפגר מאחורי ההתקדמות הנוכחית ביכולת המחשוב, המופעלת על ידי חוק מור, אז עד שהחוקרים ימציאו AGI, יהיה כל כך הרבה כוח מחשוב זול זמין עד ל-AGI תהיה היכולת הוא צריך לזנק במהירות לרמת ASI.

    במילים אחרות, כשסוף סוף תקרא את הכותרות המכריזות שחברת טכנולוגיה כלשהי המציאה את ה-AGI האמיתי הראשון, אז צפו להכרזה על ה-ASI הראשון זמן לא רב לאחר מכן.

    בתוך המוח של אינטליגנציה-על מלאכותית?

    אוקיי, אז קבענו שהרבה שחקנים גדולים עם כיסים עמוקים חוקרים בינה מלאכותית. ואז אחרי שה-AGI הראשון יומצא, נראה ממשלות העולם (צבאות) מאירות אור ירוק על הדחיפה לכיוון ASI זמן קצר לאחר מכן כדי להיות הראשונים לנצח במירוץ החימוש העולמי AI (ASI).

    אבל ברגע שה-ASI הזה נוצר, איך הוא יחשוב? מה זה ירצה?

    הכלב הידידותי, הפיל האכפתי, הרובוט החמוד — כבני אדם, יש לנו הרגל לנסות להתייחס לדברים באמצעות אנתרופולוגיה שלהם, כלומר ליישם מאפיינים אנושיים על דברים ובעלי חיים. זו הסיבה שההנחה הטבעית הראשונה שיש לאנשים כשחושבים על ASI היא שברגע שהוא איכשהו יקבל הכרה, הוא יחשוב ויתנהג בדומה לנו.

    ובכן, לאו דווקא.

    תפיסה. ראשית, מה שהרוב נוטים לשכוח הוא שהתפיסה היא יחסית. הדרכים שאנו חושבים מעוצבות על ידי הסביבה שלנו, על ידי החוויות שלנו, ובעיקר על ידי הביולוגיה שלנו. הוסבר לראשונה ב פרק שלישי שלנו עתיד האבולוציה האנושית סדרות, שקול את הדוגמה של המוח שלנו:

    המוח שלנו הוא שעוזר לנו להבין את העולם שסביבנו. וזה לא עושה זאת על ידי ציפה מעל ראשינו, התבוננות סביבנו ושליטה בנו עם בקר Xbox; הוא עושה זאת על ידי כלוא בתוך קופסה (הנוגים שלנו) ועיבוד כל מידע שהוא ניתן מאיברי החישה שלנו - העיניים, האף, האוזניים שלנו וכו'.

    אבל כשם שחרשים או עיוורים חיים חיים קטנים בהרבה בהשוואה לאנשים בעלי יכולת, בשל המגבלות שמציבה מוגבלותם על האופן שבו הם יכולים לתפוס את העולם, ניתן לומר את אותו הדבר על כל בני האדם בשל המגבלות הבסיסיות שלנו. סט של איברי חישה.

    קחו זאת בחשבון: העיניים שלנו קולטות פחות מעשרת טריליון מכל גלי האור. אנחנו לא יכולים לראות קרני גמא. אנחנו לא יכולים לראות צילומי רנטגן. אנחנו לא יכולים לראות אור אולטרה סגול. ואל תתחילו אותי עם אינפרא אדום, מיקרוגלים וגלי רדיו!

    לצחוק, דמיינו לעצמכם איך היו נראים חייכם, איך אתם עלולים לתפוס את העולם, כמה שונה המוח שלכם יכול היה לעבוד אם הייתם יכולים לראות יותר ממה שמאפשרות עיניכם כעת. כמו כן, דמיינו כיצד הייתם תופסים את העולם אם חוש הריח שלכם היה שווה לזה של כלב או אם חוש השמיעה שלכם היה שווה לזה של פיל.

    כבני אדם, אנחנו בעצם רואים את העולם דרך חור הצצה, וזה משתקף במוחות שפיתחנו כדי להבין את התפיסה המוגבלת הזו.

    בינתיים, ה-ASI הראשון ייוולד בתוך מחשב-על. במקום איברים, התשומות שהיא תיגש אליה כוללים מערכי נתונים ענקיים, אולי (כנראה) אפילו גישה לאינטרנט עצמו. חוקרים יוכלו לתת לו גישה למצלמות טלוויזיה במעגל סגור ולמיקרופונים של עיר שלמה, לנתונים התחושתיים ממזל"טים ולוויינים, ואפילו לצורה הפיזית של גוף או גופות רובוטים.

    כפי שאתם עשויים לדמיין, מוח שנולד בתוך מחשב-על, עם גישה ישירה לאינטרנט, למיליוני עיניים ואוזניים אלקטרוניות ולמגוון שלם של חיישנים מתקדמים אחרים לא רק יחשוב אחרת מאיתנו, אלא מוח שיכול להיות הגיוני. מכל אותם תשומות חושיות יצטרכו להיות עדיפות לאין שיעור גם עלינו. זהו מוח שיהיה זר לחלוטין לשלנו ולכל צורת חיים אחרת על הפלנטה.

    שערים. הדבר הנוסף שאנשים מניחים הוא שברגע ש-ASI מגיע לרמה מסוימת של אינטליגנציה-על, הוא יממש מיד את הרצון להמציא את המטרות והיעדים שלו. אבל גם זה לא בהכרח נכון.

    חוקרי בינה מלאכותית רבים מאמינים שהאינטליגנציה העל של ASI והמטרות שלו הן "אורתוגונליות", כלומר, ללא קשר למידת החכם שלה, המטרות של ה-ASI יישארו זהות. 

    אז בין אם בינה מלאכותית נוצרה במקור כדי לעצב חיתול טוב יותר, למקסם תשואות בבורסה, או ליצור אסטרטגיה של דרכים להביס אויב בשדה הקרב, ברגע שהוא יגיע לרמת ASI, המטרה המקורית לא תשתנה; מה שישתנה הוא האפקטיביות של ASI להגיע ליעדים אלה.

    אבל כאן טמונה הסכנה. אם ASI מבצע אופטימיזציה למטרה ספציפית, מוטב שנהיה בטוחים שהוא מבצע אופטימיזציה למטרה שתואמת את המטרות של האנושות. אחרת, התוצאות עלולות להפוך לקטלניות.

    האם בינה-על מלאכותית מהווה סיכון קיומי לאנושות?

    אז מה אם ASI ישתחרר בעולם? אם היא תעשה אופטימיזציה לשלוט בשוק המניות או להבטיח עליונות צבאית ארה"ב, האם ה-ASI לא יכיל את עצמו במטרות הספציפיות הללו?

    אולי.

    עד כה דנו כיצד ASI יהיה אובססיבי לגבי היעד/ים שהוקצו לו במקור ומיושר באופן בלתי אנושי בחתירה למטרות אלו. הקאץ' הוא שסוכן רציונלי יגשים את מטרותיו באמצעים היעילים ביותר האפשריים, אלא אם תינתן לו סיבה שלא.

    לדוגמא, הסוכן הרציונלי ימציא מגוון של מטרות משנה (כלומר יעדים, מטרות אינסטרומנטליות, אבני דרך) שיעזרו לו בדרכו להשגת מטרתו הסופית. עבור בני אדם, המטרה התת מודע העיקרית שלנו היא רבייה, העברת הגנים שלך (כלומר אלמוות עקיף). מטרות המשנה לשם כך יכולות לכלול לעתים קרובות:

    • לשרוד, על ידי גישה למזון ומים, לגדול ולהתחזק, ללמוד להגן על עצמך או להשקיע בצורות שונות של הגנה וכו'. 
    • משיכת בן זוג, על ידי אימון, פיתוח אישיות מרתקת, לבוש מסוגנן וכו'.
    • הקניית צאצאים, על ידי השכלה, קבלת עבודה בשכר גבוה, קניית ציוד החיים במעמד הבינוני וכו'.

    עבור רובנו המכריע, נעבור את כל מטרות המשנה הללו, ורבות אחרות, בתקווה שבסופו של דבר נשיג את המטרה הסופית הזו של רבייה.

    אבל אם המטרה הסופית הזו, או אפילו אחת ממטרות המשנה החשובות יותר, הייתה מאוימת, רבים מאיתנו היו נוקטים בפעולות הגנה מחוץ לאזורי הנוחות המוסרית שלנו - הכוללות רמאות, גניבה או אפילו הרג.

    כמו כן, בממלכת החיות, מחוץ לגבולות המוסר האנושי, בעלי חיים רבים לא יחשבו פעמיים על הרג כל דבר שמאיים על עצמם או על צאצאיהם.

    ASI עתידי לא יהיה שונה.

    אבל במקום צאצאים, ה-ASI יתמקד במטרה המקורית שלשמה נוצר, ובחתירה למטרה זו, אם ימצא קבוצה מסוימת של בני אדם, או אפילו את האנושות כולה, מהווה מכשול בחתירה למטרותיה. , לאחר מכן ... זה יקבל את ההחלטה הרציונלית.

    (כאן אתה יכול לחבר כל תרחיש של יום הדין הקשור לבינה מלאכותית שקראת עליו בספר או בסרט המדע הבדיוני האהוב עליך.)

    זהו התרחיש הגרוע ביותר שחוקרי AI באמת מודאגים ממנו. ה-ASI לא יפעל מתוך שנאה או רוע, רק אדישות, כמו שצוות בנייה לא יחשוב פעמיים על דחפור גבעת נמלים בתהליך של בניית מגדל דירות חדש.

    הערת שוליים. בשלב זה, חלק מכם אולי תוהים, "האם חוקרי בינה מלאכותית לא יכולים פשוט לערוך את יעדי הליבה של ה-ASI לאחר מעשה אם נגלה שהוא פועל החוצה?"

    לא באמת.

    ברגע ש-ASI מתבגר, כל ניסיון לערוך את היעדים המקוריים שלו עלול להיחשב כאיום, וכזה שידרוש פעולות קיצוניות כדי להתגונן מפניו. אם נשתמש בכל דוגמה של הרבייה האנושית מלפני כן, זה כמעט כאילו גנב איים לגנוב תינוק מרחמה של אמא לעתיד - אתה יכול להיות בטוח שאמא תנקוט באמצעים קיצוניים כדי להגן על הילד שלה.

    שוב, אנחנו לא מדברים כאן על מחשבון, אלא על יצור 'חי', וכזה שיום אחד יהפוך להיות הרבה יותר חכם מכל בני האדם על הפלנטה גם יחד.

    הלא ידוע

    מאחורי האגדה של תיבת פנדורה היא אמת פחות ידועה שאנשים שוכחים לעתים קרובות: פתיחת הקופסה היא בלתי נמנעת, אם לא על ידך מאשר על ידי מישהו אחר. ידע אסור מפתה מכדי להישאר נעול לנצח.

    זו הסיבה שאין טעם לנסות להגיע להסכמה גלובלית להפסיק כל מחקר ב-AI שעלול להוביל ל-ASI - יש יותר מדי ארגונים שעובדים על הטכנולוגיה הזו הן באופן רשמי והן בצל.

    בסופו של דבר, אין לנו מושג מה המשמעות של הישות החדשה הזו, ה-ASI הזה לחברה, לטכנולוגיה, לפוליטיקה, לשלום ולמלחמה. אנו, בני האדם, עומדים להמציא שוב את האש ולאן הבריאה הזו מובילה אותנו אינו ידוע לחלוטין.

    אם נחזור לפרק הראשון בסדרה הזו, הדבר היחיד שאנחנו כן יודעים בוודאות הוא שהאינטליגנציה היא כוח. אינטליגנציה היא שליטה. בני אדם יכולים לבקר כלאחר יד את החיות המסוכנות ביותר בעולם בגני החיות המקומיים שלהם, לא בגלל שאנחנו חזקים פיזית מהחיות האלה, אלא בגלל שאנחנו חכמים יותר.

    בהתחשב בהימור הפוטנציאלי הכרוך בכך, של ASI המשתמשת באינטלקט העצום שלו כדי לנקוט בפעולות שיכולות לאיים ישירות או בשוגג על הישרדות המין האנושי, אנו חייבים לעצמנו לפחות לנסות לתכנן אמצעי הגנה שיאפשרו לבני אדם להישאר בשטח של הנהג. מושב-זֶה הוא הנושא של הפרק הבא.

    סדרת העתיד של בינה מלאכותית

    P1: בינה מלאכותית היא החשמל של מחר

    P2: כיצד הבינה הכללית המלאכותית הראשונה תשנה את החברה

    P3: איך ניצור את הבינה העל המלאכותית הראשונה

    P5: איך בני אדם יתגונו מפני בינה-על מלאכותית

    P6: האם בני אדם יחיו בשלום בעתיד שנשלט על ידי בינה מלאכותית?

    העדכון המתוכנן הבא לתחזית זו

    2025-09-25

    הפניות לתחזית

    הקישורים הפופולריים והמוסדיים הבאים קיבלו התייחסות לתחזית זו:

    ניו יורק טיימס
    MIT טכנולוגיה סקירה
    איך נגיע לשלב הבא

    הקישורים הבאים של Quantumrun קיבלו התייחסות לתחזית זו: