ٹکنالوجی کا خوف پھیلانا: کبھی نہ ختم ہونے والی ٹیکنالوجی کی گھبراہٹ

تصویری کریڈٹ:
تصویری کریڈٹ
iStock

ٹکنالوجی کا خوف پھیلانا: کبھی نہ ختم ہونے والی ٹیکنالوجی کی گھبراہٹ

ٹکنالوجی کا خوف پھیلانا: کبھی نہ ختم ہونے والی ٹیکنالوجی کی گھبراہٹ

ذیلی سرخی والا متن
مصنوعی ذہانت کو قیامت کے دن کی اگلی دریافت قرار دیا جاتا ہے، جس کے نتیجے میں جدت طرازی میں ممکنہ سست روی پیدا ہوتی ہے۔
    • مصنف:
    • مصنف کا نام
      Quantumrun دور اندیشی
    • جون 13، 2023

    بصیرت کی جھلکیاں

    انسانی ترقی پر ٹکنالوجی کا تاریخی اثر نمایاں رہا ہے، ممکنہ خطرات اکثر سماجی مباحث کو آگے بڑھاتے ہیں۔ نئی ٹیکنالوجیز کے ساتھ خوف پھیلانے کے اس انداز کے نتیجے میں اخلاقی گھبراہٹ کی لہر، تحقیق کے لیے سیاسی طور پر حوصلہ افزائی کی جانے والی فنڈنگ، اور سنسنی خیز میڈیا کوریج ہوتی ہے۔ دریں اثنا، حقیقی دنیا کے نتائج سامنے آرہے ہیں، جیسا کہ اسکولوں اور ممالک میں ChatGPT جیسے AI ٹولز پر پابندی لگانے کی کوششوں میں دیکھا گیا ہے، جس کے نتیجے میں ممکنہ طور پر غیر قانونی استعمال، جدت طرازی، اور سماجی بے چینی میں اضافہ ہوتا ہے۔

    ٹیکنالوجی کا خوف پھیلانے والا سیاق و سباق

    پوری تاریخ میں تکنیکی رکاوٹوں نے انسانی ترقی کو نمایاں طور پر شکل دی ہے، جدید ترین مصنوعی ذہانت (AI) ہے۔ خاص طور پر، جنریٹو AI ہمارے مستقبل کو بہت زیادہ متاثر کر سکتا ہے، خاص طور پر جب اس کے ممکنہ خطرات پر غور کیا جائے۔ میلون کرانزبرگ، ایک مشہور امریکی مورخ نے ٹیکنالوجی کے چھ قوانین فراہم کیے جو معاشرے اور ٹیکنالوجی کے درمیان پیچیدہ تعامل کو بیان کرتے ہیں۔ اس کا پہلا قانون اس بات پر زور دیتا ہے کہ ٹیکنالوجی نہ اچھی ہے اور نہ بری۔ اس کے اثرات انسانی فیصلہ سازی اور سماجی تناظر سے متعین ہوتے ہیں۔ 

    AI میں تیز رفتار ترقی، خاص طور پر مصنوعی جنرل انٹیلی جنس (AGI)، نئی رفتار پیدا کر رہی ہے۔ تاہم، یہ پیش رفت بحثیں پیدا کرتی ہے، کچھ ماہرین AI کی ترقی کی سطح پر سوال اٹھاتے ہیں اور دیگر ممکنہ سماجی خطرات کو اجاگر کرتے ہیں۔ اس رجحان نے خوف پھیلانے والے معمول کے ہتھکنڈوں کو جنم دیا ہے جو نئی ٹیکنالوجیز کے ساتھ آتے ہیں، اکثر انسانی تہذیب پر ان اختراعات کے ممکنہ اثرات کے غیر ثابت شدہ خوف کو بھڑکاتے ہیں۔

    آکسفورڈ یونیورسٹی کے تجرباتی نفسیات کے لیے گریجویٹ، ایمی اوربن نے ایک چار مراحل کا تصور تخلیق کیا جس کا نام سیسیفین سائیکل آف تکنیکی اضطراب ہے تاکہ یہ سمجھا جا سکے کہ ٹیکنالوجی سے خوف کیوں پیدا ہوتا ہے۔ سیسیفس یونانی افسانوں کا ایک کردار ہے جس کی قسمت میں ایک چٹان کو ہمیشہ کے لیے ایک ڈھلوان پر دھکیلنا تھا، صرف اس لیے کہ وہ واپس نیچے لڑھک جائے، اور اسے مسلسل اس عمل کو دہرانے پر مجبور کیا۔ 

    اوربن کے مطابق، ٹیکنالوجی کی گھبراہٹ کی ٹائم لائن کچھ یوں ہے: ایک نئی ٹیکنالوجی ظاہر ہوتی ہے، پھر سیاست دان اخلاقی گھبراہٹ کو ہوا دینے کے لیے قدم رکھتے ہیں۔ محققین ان سیاست دانوں سے فنڈز حاصل کرنے کے لیے ان موضوعات پر توجہ دینا شروع کر دیتے ہیں۔ آخر میں، محققین کے اپنے طویل مطالعے کے نتائج شائع کرنے کے بعد، میڈیا ان اکثر سنسنی خیز نتائج کا احاطہ کرتا ہے۔ 

    خلل ڈالنے والا اثر

    پہلے ہی، جنریٹو اے آئی کو جانچ پڑتال اور "احتیاطی اقدامات" کا سامنا ہے۔ مثال کے طور پر، امریکہ میں پبلک اسکول نیٹ ورکس، جیسے نیویارک اور لاس اینجلس، نے اپنے احاطے میں ChatGPT کے استعمال پر پابندی لگا دی ہے۔ تاہم، MIT ٹیکنالوجی ریویو میں ایک مضمون دلیل دیتا ہے کہ ٹیکنالوجیز پر پابندی لگانے کے نتیجے میں مزید منفی نتائج برآمد ہو سکتے ہیں، جیسے کہ طالب علموں کو ان کا غیر قانونی استعمال کرنے کی ترغیب دینا۔ مزید برآں، اس طرح کی پابندی AI کے فوائد اور حدود کے بارے میں کھلے مکالمے کو فروغ دینے کے بجائے اس کے غلط استعمال کو فروغ دے سکتی ہے۔

    ممالک بھی جنریٹو AI کو بہت زیادہ محدود کرنا شروع کر رہے ہیں۔ ڈیٹا پرائیویسی کے مسائل کی وجہ سے اٹلی مارچ 2023 میں ChatGPT پر پابندی لگانے والا پہلا مغربی ملک بن گیا۔ اوپن اے آئی کے ان خدشات کو دور کرنے کے بعد، حکومت نے اپریل میں پابندی ہٹا دی۔ تاہم، اٹلی کی مثال نے دیگر یورپی ریگولیٹرز کے درمیان دلچسپی کو جنم دیا، خاص طور پر یورپی یونین (EU) کے جنرل ڈیٹا پروٹیکشن ریگولیشن (GDPR) کے تناظر میں۔ پہلے ہی، آئرلینڈ اور فرانس ChatGPT کی ڈیٹا پالیسی کی مزید تحقیقات کر رہے ہیں۔

    دریں اثنا، میڈیا میں AI کا خوف پھیلانے کا عمل تیز ہو سکتا ہے، جہاں AI کا بیانیہ لاکھوں ملازمتوں کو بے گھر کر رہا ہے، سست سوچ رکھنے والوں کا کلچر بنا رہا ہے، اور غلط معلومات اور پروپیگنڈے کو بہت آسان بنا رہا ہے۔ اگرچہ ان خدشات میں خوبیاں ہیں، کچھ کا کہنا ہے کہ ٹیکنالوجی اب بھی نسبتاً نئی ہے، اور کوئی بھی اس بات کا یقین نہیں کر سکتا کہ یہ ان رجحانات کا مقابلہ کرنے کے لیے تیار نہیں ہوگی۔ مثال کے طور پر، ورلڈ اکنامک فورم نے پیش گوئی کی ہے کہ 2025 تک مشینیں تقریباً 85 ملین ملازمتوں کی جگہ لے سکتی ہیں۔ تاہم، وہ 97 ملین نئی پوزیشنیں بھی پیدا کر سکتے ہیں جو انسانوں اور مشینوں کے درمیان ابھرتے ہوئے تعاون کے لیے موزوں ہیں۔

    ٹیکنالوجی سے خوف پیدا کرنے کے مضمرات

    ٹیکنالوجی کے خوف کو پھیلانے کے وسیع اثرات میں شامل ہو سکتے ہیں: 

    • تکنیکی ترقی کے تئیں عدم اعتماد اور بے چینی میں اضافہ، ممکنہ طور پر نئی ٹیکنالوجیز کو اپنانے میں ہچکچاہٹ کا باعث بنتا ہے۔
    • ایک ایسا ماحول بنا کر اقتصادی ترقی اور اختراع میں رکاوٹ ڈالی جہاں سمجھے جانے والے خطرات کی وجہ سے کاروباری افراد، سرمایہ کاروں اور کاروباروں کے نئے تکنیکی منصوبوں کو آگے بڑھانے کا امکان کم ہو۔
    • سیاست دان سیاسی فائدے کے لیے عوامی خوف کا استحصال کرتے ہیں، جس کی وجہ سے محدود پالیسیاں، حد سے زیادہ ریگولیشن، یا مخصوص ٹیکنالوجیز پر پابندی لگتی ہے، جو جدت کو روک سکتی ہیں۔
    • مختلف ڈیموگرافک گروپس کے درمیان وسیع ہوتی ہوئی ڈیجیٹل تقسیم۔ نوجوان نسلیں، جو عام طور پر زیادہ ٹیک سیوی ہوتی ہیں، انہیں نئی ​​ٹیکنالوجیز تک زیادہ رسائی اور سمجھ حاصل ہو سکتی ہے، جبکہ پرانی نسلیں پیچھے رہ سکتی ہیں۔ 
    • تکنیکی ترقی میں جمود، جس کے نتیجے میں صحت کی دیکھ بھال، نقل و حمل، اور قابل تجدید توانائی جیسے اہم شعبوں میں پیش رفت اور بہتری کی کمی ہے۔ 
    • آٹومیشن کی وجہ سے ملازمت کے ضائع ہونے کا خوف زیادہ موثر اور ماحول دوست ٹیکنالوجیز کو اپنانے سے روکتا ہے، روایتی، کم پائیدار صنعتوں پر انحصار کو طول دیتا ہے۔ 

    غور کرنے کے لیے سوالات۔

    • ٹیک کمپنیاں کس طرح اس بات کو یقینی بنا سکتی ہیں کہ ان کی کامیابیاں اور جدت طرازی خوف زدہ کرنے کی تحریک نہیں دیتی؟