آیا ابرهوش مصنوعی بشریت را نابود خواهد کرد؟ آینده هوش مصنوعی P4

اعتبار تصویر: کوانتوم ران

آیا ابرهوش مصنوعی بشریت را نابود خواهد کرد؟ آینده هوش مصنوعی P4

    اختراعات خاصی وجود دارد که ملت ها به طور کلی روی آن ها انجام می دهند. اینها اختراعاتی هستند که در آن همه چیز به اول بودن بستگی دارد و هر چیزی کمتر می تواند به معنای یک تهدید استراتژیک و مرگبار برای بقای یک ملت باشد.

    این اختراعات تعریف‌کننده تاریخ اغلب به وجود نمی‌آیند، اما وقتی اتفاق می‌افتد، جهان متوقف می‌شود و آینده قابل پیش‌بینی مبهم می‌شود.

    آخرین اختراع از این دست در بدترین زمان جنگ جهانی دوم پدیدار شد. در حالی که نازی‌ها در تمام جبهه‌های دنیای قدیم، در دنیای جدید، به‌ویژه در یک پایگاه ارتش مخفی در خارج از لوس آلاموس، به دست می‌آوردند، متفقین به سختی در حال کار بر روی یک سلاح برای پایان دادن به همه سلاح‌ها بودند.

    این پروژه در ابتدا کوچک بود، اما پس از آن رشد کرد و 130,000 نفر از ایالات متحده، بریتانیا و کانادا، از جمله بسیاری از متفکران بزرگ جهان در آن زمان را استخدام کرد. این ارتش نبوغ انسانی با نام رمز پروژه منهتن و با بودجه نامحدود - تقریباً 23 میلیارد دلار در سال 2018 - در نهایت موفق شد اولین بمب هسته ای را بسازد. اندکی بعد، جنگ جهانی دوم با دو انفجار اتمی به پایان رسید.

    این سلاح‌های هسته‌ای عصر اتمی را آغاز کردند، منبع کاملاً جدیدی از انرژی را معرفی کردند و به بشریت این توانایی را دادند که در عرض چند دقیقه خود را نابود کنند - چیزی که ما با وجود جنگ سرد از آن اجتناب کردیم.

    ایجاد یک ابر هوش مصنوعی (ASI) یکی دیگر از اختراعات تعیین کننده تاریخ است که قدرت آن (هم مثبت و هم مخرب) بسیار از بمب هسته ای پیشی می گیرد.

    در آخرین فصل از سری آینده هوش مصنوعی، بررسی کردیم که ASI چیست و چگونه محققان قصد دارند روزی آن را بسازند. در این فصل، به این خواهیم پرداخت که چه سازمان‌هایی در تحقیقات هوش مصنوعی (AI) رهبری می‌کنند، وقتی یک ASI هوشیاری انسان‌مانند به دست آورد، چه چیزی می‌خواهد، و چگونه ممکن است در صورت سوء مدیریت یا تحت تأثیر قرار گرفتن بشریت، بشریت را تهدید کند. رژیم های نه چندان خوب

    چه کسی برای ساخت یک ابر هوش مصنوعی کار می کند؟

    با توجه به اهمیت ایجاد یک ASI برای تاریخ بشر و اینکه چقدر مزیت قابل توجهی برای خالق آن خواهد داشت، شنیدن اینکه گروه های زیادی به طور غیرمستقیم روی این پروژه کار می کنند، جای تعجب نیست.

    (منظور ما از غیر مستقیم کار بر روی تحقیقات هوش مصنوعی است که در نهایت اولین مورد را ایجاد می کند هوش عمومی مصنوعی (AGI)، که خود به زودی به اولین ASI منجر می شود.)

    برای شروع، وقتی نوبت به سرفصل‌ها می‌رسد، رهبران واضح در تحقیقات پیشرفته هوش مصنوعی برترین شرکت‌های فناوری در ایالات متحده و چین هستند. در جبهه ایالات متحده، این شامل شرکت هایی مانند گوگل، آی بی ام و مایکروسافت می شود و در چین، شرکت هایی مانند Tencent، بایدو و علی بابا را شامل می شود. اما از آنجایی که تحقیق در مورد هوش مصنوعی در مقایسه با توسعه چیزی فیزیکی، مانند یک راکتور هسته‌ای بهتر، نسبتاً ارزان است، این زمینه‌ای است که سازمان‌های کوچک‌تر نیز می‌توانند در آن رقابت کنند، مانند دانشگاه‌ها، استارت‌آپ‌ها، و ... سازمان‌های سایه (از تصورات شرور باند خود برای آن یکی).

    اما در پشت صحنه، فشار واقعی پشت تحقیقات هوش مصنوعی از سوی دولت ها و ارتش آنها می آید. جایزه اقتصادی و نظامی اولین کسی که یک ASI را ایجاد می کند بسیار بزرگ است (که در زیر به آنها اشاره شده است) و خطر عقب افتادن را نمی بینید. و خطرات آخرین بودن حداقل برای برخی رژیم ها غیرقابل قبول است.

    با توجه به این عوامل، هزینه نسبتاً پایین تحقیق در مورد هوش مصنوعی، کاربردهای تجاری بی‌نهایت هوش مصنوعی پیشرفته و مزیت اقتصادی و نظامی اولین بودن در ایجاد یک ASI، بسیاری از محققان هوش مصنوعی بر این باورند که ایجاد یک ASI اجتناب‌ناپذیر است.

    چه زمانی یک ابر هوش مصنوعی ایجاد خواهیم کرد؟

    در فصل خود در مورد AGI، اشاره کردیم که چگونه یک نظرسنجی از محققان برتر هوش مصنوعی معتقد بودند که ما اولین AGI را تا سال 2022 خوش بینانه، تا سال 2040 واقع بینانه و تا سال 2075 بدبینانه ایجاد خواهیم کرد.

    و در ما فصل آخر، ما توضیح دادیم که چگونه ایجاد یک ASI به طور کلی نتیجه آموزش یک AGI برای خودسازی بی نهایت و دادن منابع و آزادی برای انجام این کار است.

    به همین دلیل، در حالی که اختراع یک AGI ممکن است تا چند دهه طول بکشد، ایجاد یک ASI ممکن است تنها چند سال بیشتر طول بکشد.

    این نقطه شبیه به مفهوم «اورهنگ محاسباتی» است که در آن پیشنهاد شده است یک کاغذنوشته شده توسط متفکران برجسته هوش مصنوعی، لوک موله هاوزر و نیک بوستروم. اساساً، اگر ایجاد یک AGI به عقب‌تر از پیشرفت فعلی در ظرفیت محاسباتی که توسط قانون مور ارائه می‌شود، ادامه یابد، تا زمانی که محققان یک AGI را اختراع کنند، آنقدر قدرت محاسباتی ارزان در دسترس خواهد بود که AGI ظرفیت را خواهد داشت. باید به سرعت به سطح ASI جهش کند.

    به عبارت دیگر، وقتی در نهایت سرفصل‌هایی را خواندید که اعلام می‌کنند برخی از شرکت‌های فناوری اولین AGI واقعی را اختراع کرده‌اند، پس از مدت کوتاهی انتظار معرفی اولین ASI را داشته باشید.

    درون ذهن یک ابر هوش مصنوعی؟

    خوب، بنابراین ما ثابت کرده ایم که بسیاری از بازیکنان بزرگ با جیب های عمیق در حال تحقیق در مورد هوش مصنوعی هستند. و سپس پس از اختراع اولین AGI، شاهد خواهیم بود که دولت‌های جهانی (نظامی‌ها) به سرعت به سمت یک ASI چراغ سبز نشان می‌دهند تا اولین برنده مسابقه تسلیحاتی جهانی هوش مصنوعی (ASI) باشند.

    اما زمانی که این ASI ایجاد شود، چگونه فکر خواهد کرد؟ چه خواهد خواست؟

    سگ دوستانه، فیل مراقب، ربات بامزه - ما به عنوان انسان عادت داریم که از طریق انسان شناسی اشیا، یعنی به کار بردن ویژگی های انسانی برای اشیا و حیوانات، با آنها ارتباط برقرار کنیم. به همین دلیل است که اولین فرض طبیعی مردم هنگام فکر کردن به یک ASI این است که وقتی به نوعی هوشیاری خود را به دست آورد، مانند ما فکر و رفتار خواهد کرد.

    خوب، نه لزوما.

    ادراک. به عنوان مثال، آنچه بیشتر تمایل به فراموشی دارد این است که ادراک نسبی است. روش‌هایی که ما فکر می‌کنیم توسط محیط، تجربیات و به ویژه زیست‌شناسی ما شکل می‌گیرد. ابتدا توضیح داده شد فصل سه ما آینده تکامل انسان سری، مثال مغز ما را در نظر بگیرید:

    این مغز ماست که به ما کمک می کند تا دنیای اطرافمان را درک کنیم. و این کار را با شناور شدن بالای سر ما، نگاه کردن به اطراف و کنترل ما با یک کنترلر Xbox انجام نمی دهد. این کار را با گیر افتادن در داخل یک جعبه (نوگن های ما) و پردازش اطلاعاتی که از اندام های حسی ما داده می شود انجام می دهد - چشم ها، بینی، گوش ها و غیره.

    اما همانطور که ناشنوایان یا نابینایان در مقایسه با افراد توانمند زندگی بسیار کوچک تری دارند، به دلیل محدودیت هایی که ناتوانی آنها در درک جهان دارند، همین موضوع را می توان برای همه انسان ها به دلیل محدودیت های اساسی ما گفت. مجموعه ای از اندام های حسی

    این را در نظر بگیرید: چشمان ما کمتر از یک ده تریلیونم تمام امواج نور را درک می کنند. ما نمی توانیم اشعه گاما را ببینیم. ما نمی توانیم اشعه ایکس را ببینیم. ما نمی توانیم نور فرابنفش را ببینیم. و من را با مادون قرمز، مایکروویو و امواج رادیویی شروع نکنید!

    به کنار شوخی، تصور کنید که زندگی شما چگونه خواهد بود، چگونه ممکن است جهان را درک کنید، اگر می توانستید بیش از آن نور کوچکی که چشمانتان در حال حاضر اجازه می دهد ببینید، ذهن شما چقدر متفاوت عمل می کند. به همین ترتیب، تصور کنید اگر حس بویایی شما برابر با حس بویایی یک سگ یا اگر حس شنوایی شما برابر با یک فیل باشد، جهان را چگونه درک می کنید.

    ما به عنوان انسان، اساساً جهان را از طریق یک روزنه می بینیم، و این در ذهن هایی که برای درک این ادراک محدود تکامل یافته ایم، منعکس می شود.

    در همین حال، اولین ASI درون یک ابر کامپیوتر متولد خواهد شد. به جای اندام ها، ورودی هایی که به آن دسترسی خواهد داشت شامل مجموعه داده های غول پیکر، احتمالاً (احتمالا) حتی دسترسی به خود اینترنت است. محققان می‌توانند به دوربین‌های مداربسته و میکروفون‌های کل شهر، داده‌های حسی پهپادها و ماهواره‌ها و حتی شکل فیزیکی بدن یا بدن ربات دسترسی داشته باشند.

    همانطور که ممکن است تصور کنید، ذهنی که در یک ابر کامپیوتر، با دسترسی مستقیم به اینترنت، میلیون ها چشم و گوش الکترونیکی و طیف وسیعی از حسگرهای پیشرفته دیگر متولد شده است، نه تنها متفاوت از ما فکر می کند، بلکه ذهنی که می تواند معنا پیدا کند. از همه آن ورودی‌های حسی نیز باید بی‌نهایت برتر از ما باشد. این ذهنی است که کاملاً با خود ما و هر گونه حیات دیگر روی این سیاره بیگانه خواهد بود.

    اهداف. چیز دیگری که افراد تصور می‌کنند این است که وقتی یک ASI به سطحی از هوش فوق‌العاده برسد، بلافاصله به تمایل خود برای رسیدن به اهداف و مقاصد خود پی خواهد برد. اما این لزوما هم درست نیست.

    بسیاری از محققان هوش مصنوعی معتقدند که هوش فوق العاده یک ASI و اهداف آن "متعامد" هستند، یعنی صرف نظر از اینکه چقدر هوشمند می شود، اهداف ASI ثابت می ماند. 

    بنابراین، چه یک هوش مصنوعی در اصل برای طراحی پوشک بهتر، به حداکثر رساندن بازده در بازار سهام، یا راهبرد راهبردی برای شکست دادن دشمن در میدان جنگ ایجاد شده باشد، پس از رسیدن به سطح ASI، هدف اصلی تغییر نخواهد کرد. آنچه تغییر خواهد کرد، اثربخشی ASI برای رسیدن به آن اهداف است.

    اما خطر در اینجا نهفته است. اگر ASI خود را برای رسیدن به یک هدف خاص بهینه می‌کند، بهتر است مطمئن باشیم که به هدفی مطابق با اهداف بشریت می‌رسد. در غیر این صورت، نتایج می تواند مرگبار شود.

    آیا یک ابر هوش مصنوعی خطر وجودی برای بشریت دارد؟

    پس چه می شود اگر یک ASI در جهان رها شود؟ اگر ASI برای تسلط بر بازار سهام یا تضمین برتری نظامی ایالات متحده بهینه شود، آیا ASI خود را در آن اهداف خاص مهار نمی کند؟

    احتمالا.

    تا اینجا بحث کرده‌ایم که چگونه یک ASI نسبت به هدف(هایی) که در ابتدا به آن اختصاص داده شده بود وسواس دارد و به طور غیرانسانی در تعقیب آن اهداف صلاحیت دارد. نکته این است که یک عامل منطقی اهداف خود را به کارآمدترین ابزار ممکن دنبال می کند مگر اینکه دلیلی برای عدم ارائه آن ارائه شود.

    به عنوان مثال، عامل منطقی با طیف وسیعی از اهداف فرعی (یعنی اهداف، اهداف ابزاری، سنگ های پله) مواجه خواهد شد که به او در راه رسیدن به هدف نهایی کمک می کند. برای انسان ها، هدف ناخودآگاه کلیدی ما تولید مثل، انتقال ژن های شما (یعنی جاودانگی غیرمستقیم) است. اهداف فرعی برای این منظور اغلب می تواند شامل موارد زیر باشد:

    • زنده ماندن، با دسترسی به غذا و آب، بزرگ شدن و قوی شدن، یادگیری دفاع از خود یا سرمایه گذاری در اشکال مختلف حفاظت و غیره. 
    • جذب یک همسر، با ورزش کردن، پرورش شخصیتی جذاب، شیک پوشیدن و غیره.
    • داشتن فرزند، با تحصیل، یافتن شغلی با درآمد بالا، خرید لوازم زندگی طبقه متوسط ​​و غیره.

    برای اکثریت قریب به اتفاق ما، ما از تمام این اهداف فرعی و بسیاری دیگر بردگی خواهیم کرد، با این امید که در پایان، به این هدف نهایی بازتولید دست یابیم.

    اما اگر این هدف نهایی، یا حتی هر یک از اهداف فرعی مهم‌تر، تهدید می‌شد، بسیاری از ما اقدامات تدافعی خارج از محدوده‌های راحتی اخلاقی خود انجام می‌دادیم - که شامل تقلب، دزدی یا حتی قتل می‌شود.

    به همین ترتیب، در قلمرو حیوانات، خارج از مرزهای اخلاقیات انسانی، بسیاری از حیوانات در مورد کشتن هر چیزی که خود یا فرزندانشان را تهدید می کند، فکر نمی کنند.

    ASI آینده نیز تفاوتی نخواهد داشت.

    اما به جای فرزندان، ASI بر هدف اصلی که برای آن ایجاد شده است تمرکز می کند و در تعقیب این هدف، اگر گروه خاصی از انسان ها یا حتی کل بشریت را بیابد، مانعی در راه تعقیب اهداف خود خواهد بود. ، سپس ... تصمیم منطقی خواهد گرفت.

    (اینجا جایی است که می توانید هر سناریوی روز رستاخیز مرتبط با هوش مصنوعی را که در کتاب یا فیلم علمی تخیلی مورد علاقه خود خوانده اید، وصل کنید.)

    این بدترین سناریویی است که محققان هوش مصنوعی واقعاً نگران آن هستند. ASI از روی نفرت یا شرارت عمل نمی‌کند، فقط بی‌تفاوت است، درست مانند اینکه چگونه یک خدمه ساختمانی در روند ساخت یک برج جدید کاندو، در مورد تخریب تپه مورچه‌ها دو بار فکر نمی‌کنند.

    یادداشت جانبی. در این مرحله، برخی از شما ممکن است تعجب کنید، "آیا محققان هوش مصنوعی نمی توانند اهداف اصلی ASI را پس از این واقعیت ویرایش کنند، اگر متوجه شویم که عمل می کند؟"

    نه واقعا.

    هنگامی که یک ASI بالغ می شود، هر تلاشی برای ویرایش هدف(های) اصلی آن ممکن است به عنوان یک تهدید تلقی شود و به اقدامات شدید برای دفاع از خود نیاز دارد. با استفاده از کل نمونه تولید مثل انسان از قبل، تقریباً مثل این است که دزدی تهدید به سرقت نوزاد از شکم یک مادر باردار شده باشد - مطمئن باشید که مادر اقدامات شدیدی را برای محافظت از فرزندش انجام خواهد داد.

    باز هم، ما در اینجا در مورد یک ماشین حساب صحبت نمی کنیم، بلکه در مورد یک موجود "زنده" صحبت می کنیم، و موجودی که روزی بسیار باهوش تر از همه انسان های روی کره زمین خواهد شد.

    ناشناخته

    پشت افسانه جعبه پاندورا حقیقت کمتر شناخته شده ای است که مردم اغلب آن را فراموش می کنند: باز کردن جعبه اجتناب ناپذیر است، اگر توسط شما نباشد تا توسط شخص دیگری. علم حرام وسوسه انگیزتر از آن است که برای همیشه محبوس بماند.

    به همین دلیل است که تلاش برای دستیابی به یک توافق جهانی برای متوقف کردن تمام تحقیقات در مورد هوش مصنوعی که ممکن است منجر به ASI شود بی‌معنی است - سازمان‌های زیادی هم به صورت رسمی و هم در سایه روی این فناوری کار می‌کنند.

    در نهایت، ما هیچ سرنخی نداریم که این موجودیت جدید، این ASI چه معنایی برای جامعه، فناوری، سیاست، صلح و جنگ خواهد داشت. ما انسان ها در شرف اختراع دوباره آتش هستیم و این آفرینش ما را به کجا می برد کاملاً ناشناخته است.

    با بازگشت به فصل اول این مجموعه، تنها چیزی که به طور قطع می دانیم این است که هوش قدرت است. هوش کنترل است. انسان‌ها می‌توانند به طور تصادفی از خطرناک‌ترین حیوانات جهان در باغ‌وحش‌های محلی خود دیدن کنند، نه به این دلیل که ما از نظر فیزیکی قوی‌تر از این حیوانات هستیم، بلکه به این دلیل که به طور قابل توجهی باهوش‌تر هستیم.

    با توجه به خطرات احتمالی موجود، استفاده از هوش عظیم یک ASI برای انجام اقداماتی که می تواند مستقیماً یا سهواً بقای نسل بشر را تهدید کند، ما خودمان را مدیونیم حداقل سعی کنیم حفاظت هایی را طراحی کنیم که به انسان اجازه می دهد در راننده باقی بماند. صندلی-این موضوع فصل بعد است.

    سری آینده هوش مصنوعی

    Q1: هوش مصنوعی برق فردا است

    Q2: چگونه اولین هوش مصنوعی عمومی جامعه را تغییر خواهد داد

    Q3: چگونه اولین ابرهوش مصنوعی را ایجاد خواهیم کرد

    Q5: چگونه انسان ها در برابر یک ابر هوش مصنوعی دفاع خواهند کرد

    Q6: آیا انسان ها در آینده ای که هوش مصنوعی بر آن تسلط دارد با آرامش زندگی خواهند کرد؟

    به روز رسانی برنامه ریزی شده بعدی برای این پیش بینی

    2025-09-25

    مراجع پیش بینی

    پیوندهای محبوب و سازمانی زیر برای این پیش‌بینی ارجاع داده شد:

    فناوری MIT را نقد کنید
    حلزونهای گرمسیری مارپیچی جنوب اقیانوس ساکن و اقیانوس هند
    چگونه به بعدی برسیم

    پیوندهای Quantumrun زیر برای این پیش بینی ارجاع داده شدند: