مصنوعی ذہانت کا تعصب: مشینیں اتنی معروضی نہیں ہیں جتنی ہم نے امید کی تھی۔

تصویری کریڈٹ:
تصویری کریڈٹ
iStock

مصنوعی ذہانت کا تعصب: مشینیں اتنی معروضی نہیں ہیں جتنی ہم نے امید کی تھی۔

مصنوعی ذہانت کا تعصب: مشینیں اتنی معروضی نہیں ہیں جتنی ہم نے امید کی تھی۔

ذیلی سرخی والا متن
ہر کوئی اس بات سے متفق ہے کہ AI کو غیر جانبدار ہونا چاہیے، لیکن تعصبات کو دور کرنا مشکل ثابت ہو رہا ہے۔
    • مصنف:
    • مصنف کا نام
      Quantumrun دور اندیشی
    • 8 فروری 2022

    بصیرت کا خلاصہ

    اگرچہ ڈیٹا سے چلنے والی ٹیکنالوجیز ایک منصفانہ معاشرے کو فروغ دینے کا وعدہ رکھتی ہیں، لیکن وہ اکثر انہی تعصبات کی عکاسی کرتی ہیں جو انسانوں میں پائی جاتی ہیں، جو ممکنہ ناانصافیوں کا باعث بنتی ہیں۔ مثال کے طور پر، مصنوعی ذہانت (AI) سسٹمز میں تعصبات نادانستہ طور پر نقصان دہ دقیانوسی تصورات کو خراب کر سکتے ہیں۔ تاہم، AI سسٹمز کو مزید مساوی بنانے کے لیے کوششیں جاری ہیں، حالانکہ یہ افادیت اور انصاف کے درمیان توازن، اور ٹیک ٹیموں میں سوچے سمجھے ضابطے اور تنوع کی ضرورت کے بارے میں پیچیدہ سوالات کو جنم دیتا ہے۔

    AI تعصب عمومی سیاق و سباق

    امید یہ ہے کہ ڈیٹا سے چلنے والی ٹیکنالوجیز انسانیت کو ایک ایسے معاشرے کے قیام میں مدد فراہم کریں گی جہاں انصاف سب کے لیے معمول ہو۔ تاہم، موجودہ حقیقت ایک مختلف تصویر پینٹ کرتی ہے. بہت سے تعصبات جو انسانوں کے پاس ہیں، جو ماضی میں ناانصافیوں کا باعث بنے ہیں، اب ان الگورتھم میں عکس بند کیے جا رہے ہیں جو ہماری ڈیجیٹل دنیا پر حکمرانی کرتے ہیں۔ AI نظاموں میں یہ تعصبات اکثر ان افراد کے تعصبات سے پیدا ہوتے ہیں جو ان نظاموں کو تیار کرتے ہیں، اور یہ تعصبات اکثر ان کے کام میں داخل ہوتے ہیں۔

    مثال کے طور پر، 2012 کے ایک پروجیکٹ کو لے لیں جسے امیج نیٹ کے نام سے جانا جاتا ہے، جس نے مشین لرننگ سسٹم کی تربیت کے لیے تصاویر کے لیبلنگ کو کراؤڈ سورس کرنے کی کوشش کی۔ اس ڈیٹا پر تربیت یافتہ ایک بڑا نیورل نیٹ ورک بعد میں متاثر کن درستگی کے ساتھ اشیاء کی شناخت کرنے میں کامیاب رہا۔ تاہم، قریب سے معائنہ کرنے پر، محققین نے امیج نیٹ ڈیٹا کے اندر چھپے ہوئے تعصبات کو دریافت کیا۔ ایک خاص معاملے میں، اس ڈیٹا پر تربیت یافتہ الگورتھم اس مفروضے کی طرف متعصب تھا کہ تمام سافٹ ویئر پروگرامر سفید فام ہیں۔

    اس تعصب کے نتیجے میں ممکنہ طور پر خواتین کو ایسے کرداروں کے لیے نظر انداز کیا جا سکتا ہے جب ملازمت کا عمل خودکار ہوتا ہے۔ تعصبات نے ڈیٹا سیٹس میں اپنا راستہ تلاش کیا کیونکہ "عورت" کی تصاویر پر لیبل شامل کرنے والے فرد میں ایک اضافی لیبل شامل تھا جس میں توہین آمیز اصطلاح شامل تھی۔ یہ مثال بتاتی ہے کہ کس طرح تعصبات، خواہ جان بوجھ کر ہو یا غیر ارادی، حتیٰ کہ جدید ترین AI سسٹمز میں بھی دراندازی کر سکتا ہے، ممکنہ طور پر نقصان دہ دقیانوسی تصورات اور عدم مساوات کو برقرار رکھتا ہے۔

    خلل ڈالنے والا اثر 

    ڈیٹا اور الگورتھم میں تعصب کو دور کرنے کی کوششیں مختلف سرکاری اور نجی تنظیموں کے محققین نے شروع کی ہیں۔ امیج نیٹ پروجیکٹ کے معاملے میں، مثال کے طور پر، کراؤڈ سورسنگ کو لیبلنگ کی اصطلاحات کی شناخت اور اسے ختم کرنے کے لیے استعمال کیا گیا تھا جو کچھ تصاویر پر توہین آمیز روشنی ڈالتے ہیں۔ ان اقدامات نے یہ ظاہر کیا کہ AI سسٹمز کو مزید منصفانہ بنانے کے لیے دوبارہ تشکیل دینا واقعی ممکن ہے۔

    تاہم، کچھ ماہرین کا کہنا ہے کہ تعصب کو ہٹانا ممکنہ طور پر ڈیٹا سیٹ کو کم موثر بنا سکتا ہے، خاص طور پر جب متعدد تعصبات کھیل رہے ہوں۔ بعض تعصبات سے ہٹ کر ڈیٹا سیٹ میں مؤثر استعمال کے لیے کافی معلومات کی کمی ہو سکتی ہے۔ یہ سوال اٹھاتا ہے کہ واقعی متنوع تصویری ڈیٹا سیٹ کیسا ہوگا، اور اس کی افادیت پر سمجھوتہ کیے بغیر اسے کیسے استعمال کیا جا سکتا ہے۔

    یہ رجحان AI اور ڈیٹا سے چلنے والی ٹیکنالوجیز کے استعمال کے لیے سوچ سمجھ کر اپروچ کی ضرورت پر زور دیتا ہے۔ کمپنیوں کے لیے، اس کا مطلب تعصب کا پتہ لگانے والے ٹولز میں سرمایہ کاری کرنا اور ٹیک ٹیموں میں تنوع کو فروغ دینا ہو سکتا ہے۔ حکومتوں کے لیے، اس میں AI کے منصفانہ استعمال کو یقینی بنانے کے لیے ضوابط کا نفاذ شامل ہو سکتا ہے۔ 

    AI تعصب کے مضمرات

    AI تعصب کے وسیع مضمرات میں شامل ہو سکتے ہیں:

    • تنظیمیں منصفانہ اور غیر امتیازی سلوک کو یقینی بنانے کے لیے سرگرم عمل ہیں کیونکہ وہ پیداواریت اور کارکردگی کو بہتر بنانے کے لیے AI کا فائدہ اٹھاتی ہیں۔ 
    • کسی پروجیکٹ کے شروع میں اخلاقی خطرات کا پتہ لگانے اور ان کو کم کرنے کے لیے ترقیاتی ٹیموں میں ایک AI اخلاقیات کا ماہر ہونا۔ 
    • متنوع عوامل جیسے صنف، نسل، طبقے اور ثقافت کو واضح طور پر ذہن میں رکھتے ہوئے AI مصنوعات کو ڈیزائن کرنا۔
    • متنوع گروپوں سے نمائندے حاصل کرنا جو کمپنی کے AI پروڈکٹ کو جاری ہونے سے پہلے اس کی جانچ کے لیے استعمال کریں گے۔
    • عوام کے بعض ارکان سے مختلف عوامی خدمات پر پابندی ہے۔
    • عوام کے کچھ ممبران ملازمت کے مخصوص مواقع تک رسائی حاصل کرنے یا ان کے لیے اہل ہونے سے قاصر ہیں۔
    • قانون نافذ کرنے والے ادارے اور پیشہ ور افراد غیر منصفانہ طور پر معاشرے کے بعض ارکان کو دوسروں سے زیادہ نشانہ بناتے ہیں۔ 

    غور کرنے کے لیے سوالات۔

    • کیا آپ پر امید ہیں کہ خودکار فیصلہ سازی مستقبل میں منصفانہ ہوگی؟
    • AI فیصلہ سازی کے بارے میں کیا آپ کو سب سے زیادہ گھبراتا ہے؟

    بصیرت کے حوالے

    اس بصیرت کے لیے درج ذیل مشہور اور ادارہ جاتی روابط کا حوالہ دیا گیا: