Sun'iy intellektning noto'g'riligi: Mashinalar biz kutganimizdek ob'ektiv emas

TASVIR KREDIT:
Rasm krediti
iStock

Sun'iy intellektning noto'g'riligi: Mashinalar biz kutganimizdek ob'ektiv emas

Sun'iy intellektning noto'g'riligi: Mashinalar biz kutganimizdek ob'ektiv emas

Sarlavha matni
Har bir inson AI xolis bo'lishi kerak degan fikrga qo'shiladi, ammo noto'g'ri fikrlarni yo'q qilish muammoli
    • Muallif:
    • Muallifning ismi
      Kvant davrini bashorat qilish
    • Fevral 8, 2022

    Aniq xulosa

    Ma'lumotlarga asoslangan texnologiyalar adolatli jamiyatni rivojlantirishga va'da bersa-da, ular ko'pincha odamlarda mavjud bo'lgan bir xil noto'g'ri qarashlarni aks ettiradi va bu potentsial adolatsizliklarga olib keladi. Misol uchun, sun'iy intellekt (AI) tizimlarida noto'g'ri qarashlar zararli stereotiplarni beixtiyor yomonlashtirishi mumkin. Biroq, sun'iy intellekt tizimlarini yanada adolatli qilish bo'yicha harakatlar olib borilmoqda, ammo bu foydalilik va adolat o'rtasidagi muvozanat va texnologik guruhlarda o'ylangan tartibga solish va xilma-xillik zarurati haqida murakkab savollar tug'diradi.

    AIning umumiy konteksti

    Umid shuki, ma'lumotlarga asoslangan texnologiyalar insoniyatga adolat hamma uchun norma bo'lgan jamiyatni o'rnatishda yordam beradi. Biroq, hozirgi voqelik boshqacha rasm chizadi. O'tmishda adolatsizlikka olib kelgan odamlarning ko'plab noto'g'ri qarashlari endi bizning raqamli dunyomizni boshqaradigan algoritmlarda aks ettirilmoqda. AI tizimlaridagi bunday noto'g'ri qarashlar ko'pincha ushbu tizimlarni ishlab chiquvchi shaxslarning noto'g'ri qarashlaridan kelib chiqadi va bu noto'g'ri fikrlar ko'pincha ularning ishlariga kirib boradi.

    Misol uchun, 2012 yilda ImageNet nomi bilan tanilgan loyihani olaylik, u mashinani o'rganish tizimlarini o'qitish uchun tasvirlarni yorliqlashni kradsorsing qilishga intilgan. Ushbu ma'lumotlar bo'yicha o'qitilgan katta neyron tarmoq keyinchalik ob'ektlarni ta'sirchan aniqlik bilan aniqlay oldi. Biroq, yaqinroq tekshirilgandan so'ng, tadqiqotchilar ImageNet ma'lumotlarida yashiringan noto'g'ri fikrlarni aniqladilar. Muayyan holatda, ushbu ma'lumotlar bo'yicha o'qitilgan algoritm barcha dasturiy ta'minotchilar oq tanli odamlar ekanligi haqidagi taxminga asoslangan edi.

    Ishga qabul qilish jarayoni avtomatlashtirilganda, bunday noto'g'ri munosabat ayollarning bunday rollar uchun e'tibordan chetda qolishiga olib kelishi mumkin. Xayolparastlik ma'lumotlar to'plamiga kirib bordi, chunki "ayol" tasvirlariga yorliq qo'shgan shaxs kamsituvchi atamadan iborat qo'shimcha yorliqni o'z ichiga olgan. Ushbu misol, qasddan yoki qasddan bo'lmagan holda, hatto eng murakkab AI tizimlariga ham kirib borishi va zararli stereotiplar va tengsizliklarni davom ettirishi mumkinligini ko'rsatadi.

    Buzg'unchi ta'sir 

    Ma'lumotlar va algoritmlardagi noxolislikni bartaraf etishga qaratilgan sa'y-harakatlar turli davlat va xususiy tashkilotlarda tadqiqotchilar tomonidan boshlangan. ImageNet loyihasi misolida, masalan, kraudsorsing ma'lum tasvirlarni kamsituvchi yorliqlash shartlarini aniqlash va yo'q qilish uchun ishlatilgan. Ushbu chora-tadbirlar AI tizimlarini yanada adolatli bo'lish uchun qayta sozlash mumkinligini ko'rsatdi.

    Biroq, ba'zi ekspertlarning ta'kidlashicha, tarafkashlikni olib tashlash ma'lumotlar to'plamini samarasizroq qilishi mumkin, ayniqsa bir nechta noto'g'ri fikrlar mavjud bo'lsa. Muayyan noto'g'ri ma'lumotlardan mahrum qilingan ma'lumotlar to'plami samarali foydalanish uchun etarli ma'lumotga ega bo'lmasligi mumkin. Bu haqiqatan ham xilma-xil tasvir ma'lumotlar to'plami qanday ko'rinishga ega bo'lishi va undan qanday qilib foydaliligini buzmasdan foydalanish mumkinligi haqidagi savolni tug'diradi.

    Ushbu tendentsiya AI va ma'lumotlarga asoslangan texnologiyalardan foydalanishga o'ylangan yondashuv zarurligini ta'kidlaydi. Kompaniyalar uchun bu noaniqlikni aniqlash vositalariga sarmoya kiritish va texnologik guruhlarda xilma-xillikni targ'ib qilishni anglatishi mumkin. Hukumatlar uchun bu sun'iy intellektdan adolatli foydalanishni ta'minlash uchun qoidalarni amalga oshirishni o'z ichiga olishi mumkin. 

    AI tarafkashligining oqibatlari

    AI tarafkashlikning kengroq oqibatlari quyidagilarni o'z ichiga olishi mumkin:

    • Tashkilotlar mahsuldorlik va ish faoliyatini yaxshilash uchun sun'iy intellektdan foydalangan holda adolat va kamsitmaslikni ta'minlashda faol. 
    • Loyihaning boshida axloqiy xavflarni aniqlash va yumshatish uchun ishlab chiqish guruhlarida AI etikasiga ega bo'lish. 
    • Jins, irq, sinf va madaniyat kabi xilma-xillik omillarini aniq hisobga olgan holda AI mahsulotlarini loyihalash.
    • Kompaniyaning sun'iy intellekt mahsuloti chiqarilishidan oldin uni sinab ko'rish uchun foydalanadigan turli guruhlar vakillarini jalb qilish.
    • Jamiyatning ayrim a'zolari tomonidan turli davlat xizmatlari cheklangan.
    • Jamiyatning ba'zi a'zolari ma'lum bir ish imkoniyatlaridan foydalana olmaydilar yoki ularga munosib bo'la olmaydilar.
    • Huquqni muhofaza qilish organlari va mutaxassislar nohaqlik bilan jamiyatning ayrim a'zolarini boshqalardan ko'ra ko'proq nishonga olishadi. 

    Ko'rib chiqilishi kerak bo'lgan savollar

    • Avtomatlashtirilgan qaror qabul qilish kelajakda adolatli bo'lishiga optimistikmisiz?
    • AI haqida qaror qabul qilish sizni eng asabiylashtiradi?

    Insight havolalari

    Ushbu tushuncha uchun quyidagi mashhur va institutsional havolalarga havola qilingan: