کیا مصنوعی سپر انٹیلیجنس انسانیت کو ختم کر دے گی؟ مصنوعی ذہانت کا مستقبل P4

تصویری کریڈٹ: Quantumrun

کیا مصنوعی سپر انٹیلیجنس انسانیت کو ختم کر دے گی؟ مصنوعی ذہانت کا مستقبل P4

    کچھ ایسی ایجادات ہیں جو قومیں آگے بڑھتی ہیں۔ یہ ایسی ایجادات ہیں جہاں سب کچھ پہلے ہونے پر منحصر ہوتا ہے، اور اس سے کم کا مطلب کسی قوم کی بقا کے لیے اسٹریٹجک اور جان لیوا خطرہ ہو سکتا ہے۔

    تاریخ کی وضاحت کرنے والی یہ ایجادات اکثر سامنے نہیں آتیں، لیکن جب وہ ہوتی ہیں، تو دنیا رک جاتی ہے اور ایک متوقع مستقبل دھندلا ہو جاتا ہے۔

    اس طرح کی آخری ایجاد WWII کے بدترین دور میں سامنے آئی تھی۔ جب نازی پرانی دنیا میں، نئی دنیا میں، خاص طور پر لاس الاموس کے باہر ایک خفیہ فوجی اڈے کے اندر، تمام محاذوں پر جگہ حاصل کر رہے تھے، اتحادی تمام ہتھیاروں کو ختم کرنے کے لیے ایک ہتھیار پر سخت محنت کر رہے تھے۔

    یہ منصوبہ شروع میں چھوٹا تھا، لیکن پھر اس نے امریکہ، برطانیہ اور کینیڈا سے 130,000 افراد کو ملازمت فراہم کی، جن میں اس وقت دنیا کے بہت سے عظیم مفکرین بھی شامل تھے۔ مین ہٹن پروجیکٹ کو کوڈ نام دیا اور ایک لامحدود بجٹ دیا - 23 میں تقریبا$ 2018 بلین ڈالر - انسانی آسانی کی یہ فوج بالآخر پہلا ایٹمی بم بنانے میں کامیاب ہوگئی۔ کچھ ہی دیر بعد، WWII دو ایٹمی دھماکے کے ساتھ ختم ہوا۔

    ان جوہری ہتھیاروں نے جوہری دور میں آغاز کیا، توانائی کا ایک گہرا نیا ذریعہ متعارف کرایا، اور انسانیت کو منٹوں میں خود کو ختم کرنے کی صلاحیت فراہم کی — جس سے ہم سرد جنگ کے باوجود گریز کرتے تھے۔

    مصنوعی سپر انٹیلی جنس (ASI) کی تخلیق ایک اور تاریخ ہے جس کی ایجاد کی تعریف کی گئی ہے جس کی طاقت (مثبت اور تباہ کن دونوں) ایٹمی بم سے کہیں زیادہ ہے۔

    فیوچر آف آرٹیفیشل انٹیلی جنس سیریز کے آخری باب میں، ہم نے دریافت کیا کہ ASI کیا ہے اور کیسے محققین ایک دن اسے بنانے کا ارادہ رکھتے ہیں۔ اس باب میں، ہم دیکھیں گے کہ کون سی تنظیمیں مصنوعی ذہانت (AI) کی تحقیق کی رہنمائی کر رہی ہیں، ASI انسان جیسا شعور حاصل کرنے کے بعد کیا چاہے گا، اور اگر بدانتظامی کی جائے یا اگر کوئی اس کے زیر اثر آ جائے تو یہ انسانیت کو کس طرح خطرے میں ڈال سکتا ہے۔ اتنی اچھی حکومتیں نہیں۔

    کون مصنوعی سپر انٹیلی جنس بنانے کے لیے کام کر رہا ہے؟

    ASI کی تخلیق انسانی تاریخ کے لیے کتنی اہم ہوگی اور اس سے اس کے تخلیق کار کو کتنا بڑا فائدہ ہوگا، یہ سن کر حیرت کی کوئی بات نہیں ہوگی کہ بہت سے گروپ بالواسطہ طور پر اس پروجیکٹ پر کام کر رہے ہیں۔

    (بالواسطہ طور پر، ہمارا مطلب AI تحقیق پر کام کرنا ہے جو آخر کار پہلی تخلیق کرے گی۔ مصنوعی عمومی ذہانت (AGI)، جو کہ جلد ہی پہلے ASI کی طرف لے جائے گا۔)

    شروع کرنے کے لیے، جب شہ سرخیوں کی بات آتی ہے تو، جدید ترین AI تحقیق میں واضح رہنما امریکہ اور چین میں سرفہرست ٹیک فرمیں ہیں۔ امریکی محاذ پر، اس میں گوگل، آئی بی ایم، اور مائیکروسافٹ جیسی کمپنیاں شامل ہیں، اور چین میں، اس میں ٹینسنٹ، بیدو، اور علی بابا جیسی کمپنیاں شامل ہیں۔ لیکن چونکہ AI پر تحقیق کرنا کسی جسمانی چیز کو تیار کرنے کے مقابلے میں نسبتاً سستا ہے، جیسے کہ ایک بہتر جوہری ری ایکٹر، یہ ایک ایسا شعبہ بھی ہے جس میں چھوٹی تنظیمیں بھی مقابلہ کر سکتی ہیں، جیسے یونیورسٹیاں، سٹارٹ اپ، اور … سایہ دار تنظیمیں وہ والا).

    لیکن پردے کے پیچھے، AI تحقیق کے پیچھے اصل دھکا حکومتوں اور ان کی فوجوں کی طرف سے آ رہا ہے۔ ASI بنانے والے سب سے پہلے ہونے کا معاشی اور فوجی انعام بہت بڑا ہے (ذیل میں بیان کیا گیا ہے) اس کے پیچھے پڑنے کا خطرہ ہے۔ اور آخری ہونے کے خطرات کم از کم بعض حکومتوں کے لیے ناقابل قبول ہیں۔

    ان عوامل کو دیکھتے ہوئے، AI پر تحقیق کی نسبتاً کم لاگت، جدید AI کی لامحدود تجارتی ایپلی کیشنز، اور ASI بنانے میں سب سے پہلے ہونے کا معاشی اور فوجی فائدہ، بہت سے AI محققین کا خیال ہے کہ ASI کی تخلیق ناگزیر ہے۔

    ہم مصنوعی سپر انٹیلی جنس کب بنائیں گے؟

    AGIs کے بارے میں اپنے باب میں، ہم نے بتایا کہ کس طرح سرفہرست AI محققین کے سروے میں یقین ہے کہ ہم 2022 تک، حقیقت پسندانہ طور پر 2040 تک، اور مایوسی کے لحاظ سے 2075 تک پہلی AGI تخلیق کریں گے۔

    اور ہمارے میں آخری باب، ہم نے اس بات کا خاکہ پیش کیا کہ کس طرح ASI بنانا عام طور پر ایک AGI کو خود کو لامحدود طور پر خود کو بہتر بنانے کی ہدایت دینے اور اسے ایسا کرنے کے لئے وسائل اور آزادی دینے کا نتیجہ ہے۔

    اس وجہ سے، اگرچہ ایک AGI کو ایجاد ہونے میں چند دہائیوں تک کا وقت لگ سکتا ہے، لیکن ASI بنانے میں صرف چند سال مزید لگ سکتے ہیں۔

    یہ نقطہ 'کمپیوٹنگ اوور ہینگ' کے تصور سے ملتا جلتا ہے، جس میں تجویز کیا گیا ہے۔ ایک کاغذ، معروف AI مفکرین لیوک میوہہاؤزر اور نک بوسٹروم کے ذریعہ مشترکہ تحریر۔ بنیادی طور پر، کیا ایک AGI کی تخلیق کمپیوٹنگ کی صلاحیت میں موجودہ پیش رفت سے پیچھے رہنا جاری رکھے گا، جو مور کے قانون سے چل رہا ہے، پھر جب تک محققین ایک AGI ایجاد کر لیں گے، اتنی سستی کمپیوٹنگ طاقت دستیاب ہو جائے گی کہ AGI کی صلاحیت ہو گی۔ اسے فوری طور پر ASI کی سطح تک پہنچنے کی ضرورت ہے۔

    دوسرے لفظوں میں، جب آپ آخر میں سرخیوں کو پڑھتے ہیں جس میں یہ اعلان کیا جاتا ہے کہ کسی ٹیک کمپنی نے پہلی حقیقی AGI ایجاد کی ہے، تو پھر توقع کریں کہ پہلے ASI کا اعلان زیادہ دیر نہیں ہوگا۔

    ایک مصنوعی سپر انٹیلی جنس کے دماغ کے اندر؟

    ٹھیک ہے، تو ہم نے قائم کیا ہے کہ گہری جیب والے بہت سے بڑے کھلاڑی AI پر تحقیق کر رہے ہیں۔ اور پھر پہلی AGI ایجاد ہونے کے بعد، ہم دیکھیں گے کہ عالمی حکومتیں (ملٹریز) ASI کی طرف دھکیلتے ہوئے اس کے فوراً بعد عالمی AI (ASI) ہتھیاروں کی دوڑ جیتنے والے پہلے ہوں گے۔

    لیکن ایک بار جب یہ اے ایس آئی بن جائے تو یہ کیسے سوچے گا؟ یہ کیا چاہے گا؟

    دوستانہ کتا، دیکھ بھال کرنے والا ہاتھی، پیارا روبوٹ — بحیثیت انسان، ہماری عادت ہے کہ ہم چیزوں سے انتھروپولوجی کے ذریعے تعلق قائم کرنے کی کوشش کرتے ہیں، یعنی چیزوں اور جانوروں پر انسانی خصوصیات کا اطلاق کرتے ہیں۔ اسی لیے اے ایس آئی کے بارے میں سوچتے وقت لوگوں کا فطری پہلا مفروضہ یہ ہے کہ ایک بار جب اسے کسی طرح ہوش آجائے گا تو وہ ہمارے جیسا سوچے گا اور برتاؤ کرے گا۔

    ٹھیک ہے، ضروری نہیں.

    تاثر. ایک تو، جو سب سے زیادہ بھول جاتے ہیں وہ یہ ہے کہ ادراک رشتہ دار ہے۔ ہمارے سوچنے کے طریقے ہمارے ماحول، ہمارے تجربات اور خاص طور پر ہماری حیاتیات سے تشکیل پاتے ہیں۔ سب سے پہلے میں وضاحت کی باب تین ہمارے انسانی ارتقاء کا مستقبل سیریز، ہمارے دماغ کی مثال پر غور کریں:

    یہ ہمارا دماغ ہے جو ہمارے ارد گرد کی دنیا کو سمجھنے میں ہماری مدد کرتا ہے۔ اور یہ ہمارے سروں کے اوپر تیرنے، ادھر ادھر دیکھنے، اور ہمیں ایکس بکس کنٹرولر سے کنٹرول کرنے سے نہیں کرتا ہے۔ یہ ایک باکس (ہمارے نوگنز) کے اندر پھنس کر اور ہمارے حسی اعضاء — ہماری آنکھیں، ناک، کان وغیرہ سے جو بھی معلومات دی جاتی ہے اس پر کارروائی کرکے ایسا کرتا ہے۔

    لیکن جس طرح بہرے یا نابینا افراد قابل جسم لوگوں کے مقابلے میں بہت چھوٹی زندگی گزارتے ہیں، محدودیت کی وجہ سے ان کی معذوری اس بات پر ہوتی ہے کہ وہ دنیا کو کیسے دیکھ سکتے ہیں، اسی طرح ہماری بنیادی حدود کی وجہ سے تمام انسانوں کے لیے بھی یہی کہا جا سکتا ہے۔ حسی اعضاء کا مجموعہ

    اس پر غور کریں: ہماری آنکھیں تمام روشنی کی لہروں کے دس ٹریلینویں حصے سے بھی کم محسوس کرتی ہیں۔ ہم گاما شعاعیں نہیں دیکھ سکتے۔ ہم ایکس رے نہیں دیکھ سکتے۔ ہم الٹرا وایلیٹ روشنی نہیں دیکھ سکتے۔ اور مجھے انفراریڈ، مائیکرو ویوز، اور ریڈیو لہروں پر شروع نہ کریں!

    مذاق کو ایک طرف رکھ کر تصور کریں کہ آپ کی زندگی کیسی ہوگی، آپ دنیا کو کیسے محسوس کر سکتے ہیں، آپ کا دماغ کتنا مختلف کام کر سکتا ہے اگر آپ روشنی کے اس چھوٹے سے ذرے سے زیادہ دیکھ سکتے ہیں جو آپ کی آنکھیں اس وقت اجازت دیتی ہیں۔ اسی طرح، تصور کریں کہ اگر آپ کی سونگھنے کی حس کتے کے برابر ہو یا اگر آپ کی سننے کی حس ہاتھی کے برابر ہو تو آپ دنیا کو کیسے دیکھیں گے۔

    بحیثیت انسان، ہم بنیادی طور پر دنیا کو ایک جھانکنے کے ذریعے دیکھتے ہیں، اور یہ ان ذہنوں میں جھلکتا ہے جو ہم نے اس محدود تصور کو سمجھنے کے لیے تیار کیا ہے۔

    اس دوران پہلا ASI سپر کمپیوٹر کے اندر پیدا ہوگا۔ اعضاء کے بجائے، وہ جن آدانوں تک رسائی حاصل کرے گا ان میں بڑے ڈیٹاسیٹس شامل ہیں، ممکنہ طور پر (ممکنہ طور پر) یہاں تک کہ خود انٹرنیٹ تک رسائی بھی۔ محققین اسے پورے شہر کے سی سی ٹی وی کیمروں اور مائیکروفونز، ڈرونز اور سیٹلائٹ سے حاصل ہونے والے حسی ڈیٹا، اور یہاں تک کہ روبوٹ کے جسم یا جسم کی جسمانی شکل تک رسائی دے سکتے ہیں۔

    جیسا کہ آپ تصور کر سکتے ہیں، ایک سپر کمپیوٹر کے اندر پیدا ہونے والا دماغ، انٹرنیٹ تک براہ راست رسائی کے ساتھ، لاکھوں الیکٹرانک آنکھوں اور کانوں تک اور دیگر جدید سینسرز کی پوری رینج نہ صرف ہم سے مختلف سوچے گا، بلکہ ایک ذہن جو سمجھ سکتا ہے۔ ان تمام حسی آدانوں میں سے بھی ہم سے لامحدود برتر ہونا پڑے گا۔ یہ ایک ایسا ذہن ہے جو ہمارے اپنے اور کرہ ارض پر کسی بھی دوسری زندگی کے لیے بالکل اجنبی ہو گا۔

    اہداف. دوسری چیز جو لوگ فرض کرتے ہیں وہ یہ ہے کہ ایک بار جب ایک ASI سپر انٹیلی جنس کے کسی درجے تک پہنچ جاتا ہے، تو اسے فوراً اپنے مقاصد اور مقاصد کے ساتھ آنے کی خواہش کا احساس ہو جاتا ہے۔ لیکن ضروری نہیں کہ یہ سچ بھی ہو۔

    بہت سے AI محققین کا خیال ہے کہ ASI کی سپر انٹیلی جنس اور اس کے اہداف "آرتھوگونل" ہیں، یعنی چاہے وہ کتنا ہی ہوشیار کیوں نہ ہو، ASI کے مقاصد ایک جیسے ہی رہیں گے۔ 

    لہذا چاہے ایک AI اصل میں ایک بہتر ڈائپر ڈیزائن کرنے، اسٹاک مارکیٹ میں زیادہ سے زیادہ منافع حاصل کرنے، یا میدان جنگ میں دشمن کو شکست دینے کے طریقے بنانے کے لیے بنایا گیا ہو، ایک بار جب یہ ASI کی سطح تک پہنچ جائے تو اصل مقصد تبدیل نہیں ہوگا۔ ان مقاصد تک پہنچنے کے لیے ASI کی تاثیر میں کیا تبدیلی آئے گی۔

    لیکن یہیں خطرہ ہے۔ اگر ایک ASI جو اپنے آپ کو کسی خاص مقصد کے لیے بہتر بناتا ہے، تو ہمیں اس بات کا یقین ہونا چاہیے کہ یہ ایک ایسے مقصد کے لیے بہتر ہوتا ہے جو انسانیت کے مقاصد کے مطابق ہو۔ بصورت دیگر، نتائج جان لیوا ہو سکتے ہیں۔

    کیا مصنوعی ذہانت سے انسانیت کے وجود کو خطرہ لاحق ہے؟

    تو کیا ہوگا اگر ایک اے ایس آئی کو دنیا پر چھوڑ دیا جائے؟ اگر یہ اسٹاک مارکیٹ پر غلبہ حاصل کرنے یا امریکی فوجی بالادستی کو یقینی بناتا ہے، تو کیا ASI خود کو ان مخصوص اہداف میں شامل نہیں کرے گا؟

    ممکنہ طور پر۔

    اب تک ہم نے اس بات پر تبادلہ خیال کیا ہے کہ ایک ASI کو ان اہداف کے ساتھ کس طرح جنون میں مبتلا کیا جائے گا جو اسے اصل میں تفویض کیا گیا تھا اور ان مقاصد کے حصول میں غیر انسانی طور پر قابل تھا۔ گرفت یہ ہے کہ ایک عقلی ایجنٹ اپنے اہداف کو سب سے زیادہ موثر طریقے سے حاصل کرے گا جب تک کہ اس کی وجہ نہ دی جائے۔

    مثال کے طور پر، عقلی ایجنٹ ذیلی اہداف کی ایک رینج کے ساتھ آئے گا (یعنی مقاصد، آلہ کار اہداف، قدمی پتھر) جو اس کے حتمی مقصد کو حاصل کرنے کے راستے میں اس کی مدد کریں گے۔ انسانوں کے لیے، ہمارا کلیدی لاشعوری مقصد پنروتپادن ہے، آپ کے جینز (یعنی بالواسطہ لافانی) کو منتقل کرنا۔ اس مقصد کے ذیلی مقاصد میں اکثر شامل ہو سکتے ہیں:

    • زندہ رہنا، خوراک اور پانی تک رسائی حاصل کرکے، بڑا اور مضبوط بننا، اپنا دفاع کرنا سیکھنا یا تحفظ کی مختلف شکلوں میں سرمایہ کاری کرنا وغیرہ۔ 
    • ایک ساتھی کو اپنی طرف متوجہ کرنا، ورزش کر کے، ایک پرکشش شخصیت تیار کر کے، سجیلا لباس پہن کر، وغیرہ۔
    • اولاد پیدا کرنا، تعلیم حاصل کر کے، اعلیٰ معاوضے کی نوکری حاصل کر کے، متوسط ​​طبقے کی زندگی کا سامان خرید کر، وغیرہ۔

    ہم میں سے اکثریت کے لیے، ہم ان تمام ذیلی مقاصد، اور بہت سے دوسرے، اس امید کے ساتھ کہ آخر میں، ہم تولید کے اس حتمی مقصد کو حاصل کر لیں گے۔

    لیکن اگر یہ حتمی مقصد، یا اس سے بھی زیادہ اہم ذیلی مقاصد میں سے کسی کو بھی خطرہ لاحق ہو گیا، تو ہم میں سے بہت سے لوگ اپنے اخلاقی سکون کے علاقوں سے باہر دفاعی اقدامات کریں گے—جن میں دھوکہ دہی، چوری، یا قتل بھی شامل ہے۔

    اسی طرح، جانوروں کی بادشاہی میں، انسانی اخلاقیات کی حدود سے باہر، بہت سے جانور کسی بھی چیز کو مارنے کے بارے میں دو بار نہیں سوچیں گے جس سے خود کو یا ان کی اولاد کو خطرہ ہو۔

    مستقبل کا ASI اس سے مختلف نہیں ہوگا۔

    لیکن اولاد کے بجائے، ASI اصل مقصد پر توجہ مرکوز کرے گا جس کے لیے اسے بنایا گیا تھا، اور اس مقصد کے حصول میں، اگر اسے انسانوں کا ایک خاص گروہ، یا حتیٰ کہ پوری انسانیت، اس کے مقاصد کے حصول میں رکاوٹ ہے۔ ، پھر ... یہ عقلی فیصلہ کرے گا.

    (یہ وہ جگہ ہے جہاں آپ کسی بھی AI سے متعلق، قیامت کے دن کے منظر نامے میں پلگ ان کر سکتے ہیں جس کے بارے میں آپ نے اپنی پسندیدہ سائنس فائی کتاب یا فلم میں پڑھا ہے۔)

    یہ سب سے خراب صورتحال ہے جس کے بارے میں AI محققین واقعی پریشان ہیں۔ ASI نفرت یا برائی سے کام نہیں کرے گا، صرف بے حسی، بالکل اسی طرح جیسے تعمیراتی عملہ ایک نئے کونڈو ٹاور کی تعمیر کے دوران چیونٹی کی پہاڑی کو بلڈوز کرنے کے بارے میں دو بار نہیں سوچے گا۔

    سائیڈ نوٹ۔ اس موقع پر، آپ میں سے کچھ سوچ رہے ہوں گے، "کیا AI محققین اس حقیقت کے بعد ASI کے بنیادی اہداف میں ترمیم نہیں کر سکتے اگر ہمیں معلوم ہوتا ہے کہ یہ کام کر رہا ہے؟"

    واقعی نہیں.

    ASI کے بالغ ہونے کے بعد، اس کے اصل اہداف (اہداف) میں ترمیم کرنے کی کسی بھی کوشش کو ایک خطرے کے طور پر دیکھا جا سکتا ہے، اور جس کے خلاف اپنے دفاع کے لیے انتہائی اقدامات کی ضرورت ہوگی۔ پہلے سے پوری انسانی تولیدی مثال کا استعمال کرتے ہوئے، یہ تقریباً ایسا ہی ہے جیسے کسی چور نے حاملہ ماں کے پیٹ سے بچہ چرانے کی دھمکی دی ہو — آپ کو یقین ہے کہ ماں اپنے بچے کی حفاظت کے لیے انتہائی اقدامات کرے گی۔

    ایک بار پھر، ہم یہاں ایک کیلکولیٹر کی بات نہیں کر رہے ہیں، بلکہ ایک 'زندہ' وجود کی بات کر رہے ہیں، اور جو ایک دن کرہ ارض پر موجود تمام انسانوں سے کہیں زیادہ ہوشیار ہو جائے گا۔

    نامعلوم

    کے افسانے کے پیچھے پنڈورا باکس ایک کم معلوم سچ ہے جسے لوگ اکثر بھول جاتے ہیں: باکس کھولنا ناگزیر ہے، اگر آپ کے ذریعہ نہیں تو کسی اور کے ذریعہ۔ ممنوعہ علم اتنا پرکشش ہے کہ ہمیشہ کے لیے بند رہنے کے لیے۔

    یہی وجہ ہے کہ AI میں تمام تحقیق کو روکنے کے لیے عالمی معاہدے تک پہنچنے کی کوشش کرنا بے معنی ہے—اس ٹیکنالوجی پر سرکاری طور پر اور سائے دونوں میں بہت ساری تنظیمیں کام کر رہی ہیں۔

    آخر کار، ہمیں کوئی اندازہ نہیں ہے کہ اس نئی ہستی، اس ASI کا معاشرے، ٹیکنالوجی، سیاست، امن اور جنگ کے لیے کیا مطلب ہوگا۔ ہم انسان ایک بار پھر آگ ایجاد کرنے والے ہیں اور یہ تخلیق ہمیں کہاں لے جاتی ہے یہ بالکل نامعلوم ہے۔

    اس سلسلے کے پہلے باب کی طرف لوٹتے ہوئے، ایک چیز جو ہم یقینی طور پر جانتے ہیں وہ یہ ہے کہ ذہانت طاقت ہے۔ ذہانت کنٹرول ہے۔ انسان اتفاق سے اپنے مقامی چڑیا گھر میں دنیا کے خطرناک ترین جانوروں کا دورہ کر سکتے ہیں اس لیے نہیں کہ ہم جسمانی طور پر ان جانوروں سے زیادہ مضبوط ہیں، بلکہ اس لیے کہ ہم نمایاں طور پر ہوشیار ہیں۔

    ایک اے ایس آئی کی جانب سے اپنی بے پناہ ذہانت کا استعمال کرتے ہوئے ایسے اقدامات کرنے کے امکان کو دیکھتے ہوئے جو براہ راست یا نادانستہ طور پر نسل انسانی کی بقا کو خطرہ میں ڈال سکتے ہیں، ہم خود پر واجب ہیں کہ کم از کم ایسے حفاظتی اقدامات تیار کرنے کی کوشش کریں جو انسانوں کو ڈرائیور کے اندر رہنے کی اجازت دیں۔ نشست-اس اگلے باب کا موضوع ہے۔

    مصنوعی ذہانت سیریز کا مستقبل

    پی 1: مصنوعی ذہانت کل کی بجلی ہے۔

    پی 2: پہلی مصنوعی جنرل انٹیلی جنس معاشرے کو کیسے بدلے گی؟

    پی 3: ہم پہلی مصنوعی سپر انٹیلی جنس کیسے بنائیں گے۔

    پی 5: انسان مصنوعی سپر انٹیلی جنس کے خلاف کیسے دفاع کریں گے۔

    پی 6: کیا مصنوعی ذہانت کے غلبہ والے مستقبل میں انسان سکون سے زندگی گزاریں گے؟

    اس پیشن گوئی کے لیے اگلی شیڈول اپ ڈیٹ

    2025-09-25

    پیشن گوئی کے حوالہ جات

    اس پیشن گوئی کے لیے درج ذیل مقبول اور ادارہ جاتی روابط کا حوالہ دیا گیا:

    ایم ائی ٹی ٹیکنالوجی کا جائزہ لیں
    ہم آگے کیسے پہنچتے ہیں۔
    YouTube - فلسفہ پر کلک کریں۔

    اس پیشن گوئی کے لیے درج ذیل Quantumrun لنکس کا حوالہ دیا گیا تھا۔