آیا ابرهوش مصنوعی بشریت را نابود خواهد کرد؟ آینده هوش مصنوعی P4
آیا ابرهوش مصنوعی بشریت را نابود خواهد کرد؟ آینده هوش مصنوعی P4
اختراعات خاصی وجود دارد که ملت ها به طور کلی روی آن ها انجام می دهند. اینها اختراعاتی هستند که در آن همه چیز به اول بودن بستگی دارد و هر چیزی کمتر می تواند به معنای یک تهدید استراتژیک و مرگبار برای بقای یک ملت باشد.
این اختراعات تعریفکننده تاریخ اغلب به وجود نمیآیند، اما وقتی اتفاق میافتد، جهان متوقف میشود و آینده قابل پیشبینی مبهم میشود.
آخرین اختراع از این دست در بدترین زمان جنگ جهانی دوم پدیدار شد. در حالی که نازیها در تمام جبهههای دنیای قدیم، در دنیای جدید، بهویژه در یک پایگاه ارتش مخفی در خارج از لوس آلاموس، به دست میآوردند، متفقین به سختی در حال کار بر روی یک سلاح برای پایان دادن به همه سلاحها بودند.
این پروژه در ابتدا کوچک بود، اما پس از آن رشد کرد و 130,000 نفر از ایالات متحده، بریتانیا و کانادا، از جمله بسیاری از متفکران بزرگ جهان در آن زمان را استخدام کرد. این ارتش نبوغ انسانی با نام رمز پروژه منهتن و با بودجه نامحدود - تقریباً 23 میلیارد دلار در سال 2018 - در نهایت موفق شد اولین بمب هسته ای را بسازد. اندکی بعد، جنگ جهانی دوم با دو انفجار اتمی به پایان رسید.
این سلاحهای هستهای عصر اتمی را آغاز کردند، منبع کاملاً جدیدی از انرژی را معرفی کردند و به بشریت این توانایی را دادند که در عرض چند دقیقه خود را نابود کنند - چیزی که ما با وجود جنگ سرد از آن اجتناب کردیم.
ایجاد یک ابر هوش مصنوعی (ASI) یکی دیگر از اختراعات تعیین کننده تاریخ است که قدرت آن (هم مثبت و هم مخرب) بسیار از بمب هسته ای پیشی می گیرد.
در آخرین فصل از سری آینده هوش مصنوعی، بررسی کردیم که ASI چیست و چگونه محققان قصد دارند روزی آن را بسازند. در این فصل، به این خواهیم پرداخت که چه سازمانهایی در تحقیقات هوش مصنوعی (AI) رهبری میکنند، وقتی یک ASI هوشیاری انسانمانند به دست آورد، چه چیزی میخواهد، و چگونه ممکن است در صورت سوء مدیریت یا تحت تأثیر قرار گرفتن بشریت، بشریت را تهدید کند. رژیم های نه چندان خوب
چه کسی برای ساخت یک ابر هوش مصنوعی کار می کند؟
با توجه به اهمیت ایجاد یک ASI برای تاریخ بشر و اینکه چقدر مزیت قابل توجهی برای خالق آن خواهد داشت، شنیدن اینکه گروه های زیادی به طور غیرمستقیم روی این پروژه کار می کنند، جای تعجب نیست.
(منظور ما از غیر مستقیم کار بر روی تحقیقات هوش مصنوعی است که در نهایت اولین مورد را ایجاد می کند هوش عمومی مصنوعی (AGI)، که خود به زودی به اولین ASI منجر می شود.)
برای شروع، وقتی نوبت به سرفصلها میرسد، رهبران واضح در تحقیقات پیشرفته هوش مصنوعی برترین شرکتهای فناوری در ایالات متحده و چین هستند. در جبهه ایالات متحده، این شامل شرکت هایی مانند گوگل، آی بی ام و مایکروسافت می شود و در چین، شرکت هایی مانند Tencent، بایدو و علی بابا را شامل می شود. اما از آنجایی که تحقیق در مورد هوش مصنوعی در مقایسه با توسعه چیزی فیزیکی، مانند یک راکتور هستهای بهتر، نسبتاً ارزان است، این زمینهای است که سازمانهای کوچکتر نیز میتوانند در آن رقابت کنند، مانند دانشگاهها، استارتآپها، و ... سازمانهای سایه (از تصورات شرور باند خود برای آن یکی).
اما در پشت صحنه، فشار واقعی پشت تحقیقات هوش مصنوعی از سوی دولت ها و ارتش آنها می آید. جایزه اقتصادی و نظامی اولین کسی که یک ASI را ایجاد می کند بسیار بزرگ است (که در زیر به آنها اشاره شده است) و خطر عقب افتادن را نمی بینید. و خطرات آخرین بودن حداقل برای برخی رژیم ها غیرقابل قبول است.
با توجه به این عوامل، هزینه نسبتاً پایین تحقیق در مورد هوش مصنوعی، کاربردهای تجاری بینهایت هوش مصنوعی پیشرفته و مزیت اقتصادی و نظامی اولین بودن در ایجاد یک ASI، بسیاری از محققان هوش مصنوعی بر این باورند که ایجاد یک ASI اجتنابناپذیر است.
چه زمانی یک ابر هوش مصنوعی ایجاد خواهیم کرد؟
در فصل خود در مورد AGI، اشاره کردیم که چگونه یک نظرسنجی از محققان برتر هوش مصنوعی معتقد بودند که ما اولین AGI را تا سال 2022 خوش بینانه، تا سال 2040 واقع بینانه و تا سال 2075 بدبینانه ایجاد خواهیم کرد.
و در ما فصل آخر، ما توضیح دادیم که چگونه ایجاد یک ASI به طور کلی نتیجه آموزش یک AGI برای خودسازی بی نهایت و دادن منابع و آزادی برای انجام این کار است.
به همین دلیل، در حالی که اختراع یک AGI ممکن است تا چند دهه طول بکشد، ایجاد یک ASI ممکن است تنها چند سال بیشتر طول بکشد.
این نقطه شبیه به مفهوم «اورهنگ محاسباتی» است که در آن پیشنهاد شده است یک کاغذنوشته شده توسط متفکران برجسته هوش مصنوعی، لوک موله هاوزر و نیک بوستروم. اساساً، اگر ایجاد یک AGI به عقبتر از پیشرفت فعلی در ظرفیت محاسباتی که توسط قانون مور ارائه میشود، ادامه یابد، تا زمانی که محققان یک AGI را اختراع کنند، آنقدر قدرت محاسباتی ارزان در دسترس خواهد بود که AGI ظرفیت را خواهد داشت. باید به سرعت به سطح ASI جهش کند.
به عبارت دیگر، وقتی در نهایت سرفصلهایی را خواندید که اعلام میکنند برخی از شرکتهای فناوری اولین AGI واقعی را اختراع کردهاند، پس از مدت کوتاهی انتظار معرفی اولین ASI را داشته باشید.
درون ذهن یک ابر هوش مصنوعی؟
خوب، بنابراین ما ثابت کرده ایم که بسیاری از بازیکنان بزرگ با جیب های عمیق در حال تحقیق در مورد هوش مصنوعی هستند. و سپس پس از اختراع اولین AGI، شاهد خواهیم بود که دولتهای جهانی (نظامیها) به سرعت به سمت یک ASI چراغ سبز نشان میدهند تا اولین برنده مسابقه تسلیحاتی جهانی هوش مصنوعی (ASI) باشند.
اما زمانی که این ASI ایجاد شود، چگونه فکر خواهد کرد؟ چه خواهد خواست؟
سگ دوستانه، فیل مراقب، ربات بامزه - ما به عنوان انسان عادت داریم که از طریق انسان شناسی اشیا، یعنی به کار بردن ویژگی های انسانی برای اشیا و حیوانات، با آنها ارتباط برقرار کنیم. به همین دلیل است که اولین فرض طبیعی مردم هنگام فکر کردن به یک ASI این است که وقتی به نوعی هوشیاری خود را به دست آورد، مانند ما فکر و رفتار خواهد کرد.
خوب، نه لزوما.
ادراک. به عنوان مثال، آنچه بیشتر تمایل به فراموشی دارد این است که ادراک نسبی است. روشهایی که ما فکر میکنیم توسط محیط، تجربیات و به ویژه زیستشناسی ما شکل میگیرد. ابتدا توضیح داده شد فصل سه ما آینده تکامل انسان سری، مثال مغز ما را در نظر بگیرید:
این مغز ماست که به ما کمک می کند تا دنیای اطرافمان را درک کنیم. و این کار را با شناور شدن بالای سر ما، نگاه کردن به اطراف و کنترل ما با یک کنترلر Xbox انجام نمی دهد. این کار را با گیر افتادن در داخل یک جعبه (نوگن های ما) و پردازش اطلاعاتی که از اندام های حسی ما داده می شود انجام می دهد - چشم ها، بینی، گوش ها و غیره.
اما همانطور که ناشنوایان یا نابینایان در مقایسه با افراد توانمند زندگی بسیار کوچک تری دارند، به دلیل محدودیت هایی که ناتوانی آنها در درک جهان دارند، همین موضوع را می توان برای همه انسان ها به دلیل محدودیت های اساسی ما گفت. مجموعه ای از اندام های حسی
این را در نظر بگیرید: چشمان ما کمتر از یک ده تریلیونم تمام امواج نور را درک می کنند. ما نمی توانیم اشعه گاما را ببینیم. ما نمی توانیم اشعه ایکس را ببینیم. ما نمی توانیم نور فرابنفش را ببینیم. و من را با مادون قرمز، مایکروویو و امواج رادیویی شروع نکنید!
به کنار شوخی، تصور کنید که زندگی شما چگونه خواهد بود، چگونه ممکن است جهان را درک کنید، اگر می توانستید بیش از آن نور کوچکی که چشمانتان در حال حاضر اجازه می دهد ببینید، ذهن شما چقدر متفاوت عمل می کند. به همین ترتیب، تصور کنید اگر حس بویایی شما برابر با حس بویایی یک سگ یا اگر حس شنوایی شما برابر با یک فیل باشد، جهان را چگونه درک می کنید.
ما به عنوان انسان، اساساً جهان را از طریق یک روزنه می بینیم، و این در ذهن هایی که برای درک این ادراک محدود تکامل یافته ایم، منعکس می شود.
در همین حال، اولین ASI درون یک ابر کامپیوتر متولد خواهد شد. به جای اندام ها، ورودی هایی که به آن دسترسی خواهد داشت شامل مجموعه داده های غول پیکر، احتمالاً (احتمالا) حتی دسترسی به خود اینترنت است. محققان میتوانند به دوربینهای مداربسته و میکروفونهای کل شهر، دادههای حسی پهپادها و ماهوارهها و حتی شکل فیزیکی بدن یا بدن ربات دسترسی داشته باشند.
همانطور که ممکن است تصور کنید، ذهنی که در یک ابر کامپیوتر، با دسترسی مستقیم به اینترنت، میلیون ها چشم و گوش الکترونیکی و طیف وسیعی از حسگرهای پیشرفته دیگر متولد شده است، نه تنها متفاوت از ما فکر می کند، بلکه ذهنی که می تواند معنا پیدا کند. از همه آن ورودیهای حسی نیز باید بینهایت برتر از ما باشد. این ذهنی است که کاملاً با خود ما و هر گونه حیات دیگر روی این سیاره بیگانه خواهد بود.
اهداف. چیز دیگری که افراد تصور میکنند این است که وقتی یک ASI به سطحی از هوش فوقالعاده برسد، بلافاصله به تمایل خود برای رسیدن به اهداف و مقاصد خود پی خواهد برد. اما این لزوما هم درست نیست.
بسیاری از محققان هوش مصنوعی معتقدند که هوش فوق العاده یک ASI و اهداف آن "متعامد" هستند، یعنی صرف نظر از اینکه چقدر هوشمند می شود، اهداف ASI ثابت می ماند.
بنابراین، چه یک هوش مصنوعی در اصل برای طراحی پوشک بهتر، به حداکثر رساندن بازده در بازار سهام، یا راهبرد راهبردی برای شکست دادن دشمن در میدان جنگ ایجاد شده باشد، پس از رسیدن به سطح ASI، هدف اصلی تغییر نخواهد کرد. آنچه تغییر خواهد کرد، اثربخشی ASI برای رسیدن به آن اهداف است.
اما خطر در اینجا نهفته است. اگر ASI خود را برای رسیدن به یک هدف خاص بهینه میکند، بهتر است مطمئن باشیم که به هدفی مطابق با اهداف بشریت میرسد. در غیر این صورت، نتایج می تواند مرگبار شود.
آیا یک ابر هوش مصنوعی خطر وجودی برای بشریت دارد؟
پس چه می شود اگر یک ASI در جهان رها شود؟ اگر ASI برای تسلط بر بازار سهام یا تضمین برتری نظامی ایالات متحده بهینه شود، آیا ASI خود را در آن اهداف خاص مهار نمی کند؟
احتمالا.
تا اینجا بحث کردهایم که چگونه یک ASI نسبت به هدف(هایی) که در ابتدا به آن اختصاص داده شده بود وسواس دارد و به طور غیرانسانی در تعقیب آن اهداف صلاحیت دارد. نکته این است که یک عامل منطقی اهداف خود را به کارآمدترین ابزار ممکن دنبال می کند مگر اینکه دلیلی برای عدم ارائه آن ارائه شود.
به عنوان مثال، عامل منطقی با طیف وسیعی از اهداف فرعی (یعنی اهداف، اهداف ابزاری، سنگ های پله) مواجه خواهد شد که به او در راه رسیدن به هدف نهایی کمک می کند. برای انسان ها، هدف ناخودآگاه کلیدی ما تولید مثل، انتقال ژن های شما (یعنی جاودانگی غیرمستقیم) است. اهداف فرعی برای این منظور اغلب می تواند شامل موارد زیر باشد:
- زنده ماندن، با دسترسی به غذا و آب، بزرگ شدن و قوی شدن، یادگیری دفاع از خود یا سرمایه گذاری در اشکال مختلف حفاظت و غیره.
- جذب یک همسر، با ورزش کردن، پرورش شخصیتی جذاب، شیک پوشیدن و غیره.
- داشتن فرزند، با تحصیل، یافتن شغلی با درآمد بالا، خرید لوازم زندگی طبقه متوسط و غیره.
برای اکثریت قریب به اتفاق ما، ما از تمام این اهداف فرعی و بسیاری دیگر بردگی خواهیم کرد، با این امید که در پایان، به این هدف نهایی بازتولید دست یابیم.
اما اگر این هدف نهایی، یا حتی هر یک از اهداف فرعی مهمتر، تهدید میشد، بسیاری از ما اقدامات تدافعی خارج از محدودههای راحتی اخلاقی خود انجام میدادیم - که شامل تقلب، دزدی یا حتی قتل میشود.
به همین ترتیب، در قلمرو حیوانات، خارج از مرزهای اخلاقیات انسانی، بسیاری از حیوانات در مورد کشتن هر چیزی که خود یا فرزندانشان را تهدید می کند، فکر نمی کنند.
ASI آینده نیز تفاوتی نخواهد داشت.
اما به جای فرزندان، ASI بر هدف اصلی که برای آن ایجاد شده است تمرکز می کند و در تعقیب این هدف، اگر گروه خاصی از انسان ها یا حتی کل بشریت را بیابد، مانعی در راه تعقیب اهداف خود خواهد بود. ، سپس ... تصمیم منطقی خواهد گرفت.
(اینجا جایی است که می توانید هر سناریوی روز رستاخیز مرتبط با هوش مصنوعی را که در کتاب یا فیلم علمی تخیلی مورد علاقه خود خوانده اید، وصل کنید.)
این بدترین سناریویی است که محققان هوش مصنوعی واقعاً نگران آن هستند. ASI از روی نفرت یا شرارت عمل نمیکند، فقط بیتفاوت است، درست مانند اینکه چگونه یک خدمه ساختمانی در روند ساخت یک برج جدید کاندو، در مورد تخریب تپه مورچهها دو بار فکر نمیکنند.
یادداشت جانبی. در این مرحله، برخی از شما ممکن است تعجب کنید، "آیا محققان هوش مصنوعی نمی توانند اهداف اصلی ASI را پس از این واقعیت ویرایش کنند، اگر متوجه شویم که عمل می کند؟"
نه واقعا.
هنگامی که یک ASI بالغ می شود، هر تلاشی برای ویرایش هدف(های) اصلی آن ممکن است به عنوان یک تهدید تلقی شود و به اقدامات شدید برای دفاع از خود نیاز دارد. با استفاده از کل نمونه تولید مثل انسان از قبل، تقریباً مثل این است که دزدی تهدید به سرقت نوزاد از شکم یک مادر باردار شده باشد - مطمئن باشید که مادر اقدامات شدیدی را برای محافظت از فرزندش انجام خواهد داد.
باز هم، ما در اینجا در مورد یک ماشین حساب صحبت نمی کنیم، بلکه در مورد یک موجود "زنده" صحبت می کنیم، و موجودی که روزی بسیار باهوش تر از همه انسان های روی کره زمین خواهد شد.
ناشناخته
پشت افسانه جعبه پاندورا حقیقت کمتر شناخته شده ای است که مردم اغلب آن را فراموش می کنند: باز کردن جعبه اجتناب ناپذیر است، اگر توسط شما نباشد تا توسط شخص دیگری. علم حرام وسوسه انگیزتر از آن است که برای همیشه محبوس بماند.
به همین دلیل است که تلاش برای دستیابی به یک توافق جهانی برای متوقف کردن تمام تحقیقات در مورد هوش مصنوعی که ممکن است منجر به ASI شود بیمعنی است - سازمانهای زیادی هم به صورت رسمی و هم در سایه روی این فناوری کار میکنند.
در نهایت، ما هیچ سرنخی نداریم که این موجودیت جدید، این ASI چه معنایی برای جامعه، فناوری، سیاست، صلح و جنگ خواهد داشت. ما انسان ها در شرف اختراع دوباره آتش هستیم و این آفرینش ما را به کجا می برد کاملاً ناشناخته است.
با بازگشت به فصل اول این مجموعه، تنها چیزی که به طور قطع می دانیم این است که هوش قدرت است. هوش کنترل است. انسانها میتوانند به طور تصادفی از خطرناکترین حیوانات جهان در باغوحشهای محلی خود دیدن کنند، نه به این دلیل که ما از نظر فیزیکی قویتر از این حیوانات هستیم، بلکه به این دلیل که به طور قابل توجهی باهوشتر هستیم.
با توجه به خطرات احتمالی موجود، استفاده از هوش عظیم یک ASI برای انجام اقداماتی که می تواند مستقیماً یا سهواً بقای نسل بشر را تهدید کند، ما خودمان را مدیونیم حداقل سعی کنیم حفاظت هایی را طراحی کنیم که به انسان اجازه می دهد در راننده باقی بماند. صندلی-این موضوع فصل بعد است.
سری آینده هوش مصنوعی
Q2: چگونه اولین هوش مصنوعی عمومی جامعه را تغییر خواهد داد
Q3: چگونه اولین ابرهوش مصنوعی را ایجاد خواهیم کرد
Q5: چگونه انسان ها در برابر یک ابر هوش مصنوعی دفاع خواهند کرد
Q6: آیا انسان ها در آینده ای که هوش مصنوعی بر آن تسلط دارد با آرامش زندگی خواهند کرد؟
به روز رسانی برنامه ریزی شده بعدی برای این پیش بینی
مراجع پیش بینی
پیوندهای محبوب و سازمانی زیر برای این پیشبینی ارجاع داده شد:
پیوندهای Quantumrun زیر برای این پیش بینی ارجاع داده شدند: