Süni intellektin qərəzi: Maşınlar gözlədiyimiz qədər obyektiv deyil

ŞƏKİL KREDİTİ:
Şəkil krediti
iStock

Süni intellektin qərəzi: Maşınlar gözlədiyimiz qədər obyektiv deyil

Süni intellektin qərəzi: Maşınlar gözlədiyimiz qədər obyektiv deyil

Alt başlıq mətni
Hər kəs AI-nin qərəzsiz olması ilə razılaşır, lakin qərəzləri aradan qaldırmaq problemli olduğunu sübut edir
    • Author:
    • Author adı
      Quantumrun Uzaqgörməsi
    • Fevral 8, 2022

    Anlayış xülasəsi

    Məlumata əsaslanan texnologiyalar ədalətli cəmiyyəti inkişaf etdirmək vədini versə də, onlar çox vaxt insanların potensial ədalətsizliklərə gətirib çıxardığı eyni qərəzləri əks etdirir. Məsələn, süni intellekt (AI) sistemlərində qərəzli yanaşmalar zərərli stereotipləri səhvən pisləşdirə bilər. Bununla belə, AI sistemlərini daha ədalətli etmək üçün səylər davam edir, baxmayaraq ki, bu, faydalılıq və ədalətlilik arasındakı tarazlıq və texnoloji qruplarda düşünülmüş tənzimləmə və müxtəlifliyə ehtiyac haqqında mürəkkəb suallar doğurur.

    AI qərəzli ümumi kontekst

    Ümid odur ki, məlumatlarla idarə olunan texnologiyalar bəşəriyyətə ədalətin hamı üçün norma olduğu bir cəmiyyət qurmağa kömək edəcək. Ancaq indiki reallıq fərqli mənzərə yaradır. İnsanların keçmişdə haqsızlıqlara səbəb olan bir çox qərəzləri indi rəqəmsal dünyamızı idarə edən alqoritmlərdə əks olunur. Süni intellekt sistemlərindəki bu qərəzlər çox vaxt bu sistemləri inkişaf etdirən şəxslərin qərəzlərindən qaynaqlanır və bu qərəzlər tez-tez onların işinə sızır.

    Məsələn, 2012-ci ildə ImageNet kimi tanınan layihəni götürək, o, maşın öyrənmə sistemlərinin təlimi üçün şəkillərin etiketlənməsini crowdsource etməyə çalışırdı. Bu məlumatlar üzərində təlim keçmiş böyük bir neyron şəbəkəsi sonradan obyektləri təsir edici dəqiqliklə müəyyən edə bildi. Bununla belə, daha yaxından təftiş etdikdən sonra tədqiqatçılar ImageNet məlumatlarında gizlənmiş qərəzləri aşkar etdilər. Müəyyən bir halda, bu məlumatlar əsasında hazırlanmış bir alqoritm bütün proqramçıların ağdərili adamlar olduğu fərziyyəsinə qarşı qərəzli idi.

    Bu qərəz potensial olaraq işə qəbul prosesi avtomatlaşdırıldıqda qadınların bu cür rollar üçün diqqətdən kənarda qalması ilə nəticələnə bilər. “Qadın” şəkillərinə etiketlər əlavə edən şəxs alçaldıcı termindən ibarət əlavə etiket daxil etdiyinə görə qərəzlər məlumat dəstlərinə daxil oldu. Bu misal qərəzlərin, istər qəsdən, istərsə də istəmədən, hətta ən mürəkkəb süni intellekt sistemlərinə necə nüfuz edə biləcəyini, potensial olaraq zərərli stereotipləri və bərabərsizlikləri davam etdirə biləcəyini göstərir.

    Dağıdıcı təsir 

    Məlumatlarda və alqoritmlərdə qərəzliliyi aradan qaldırmaq səyləri müxtəlif dövlət və özəl təşkilatlarda tədqiqatçılar tərəfindən başlanmışdır. Məsələn, ImageNet layihəsinin vəziyyətində, müəyyən şəkillərə alçaldıcı işıq saçan etiketləmə şərtlərini müəyyən etmək və aradan qaldırmaq üçün kraudsorsing tətbiq edilmişdir. Bu tədbirlər süni intellekt sistemlərini daha ədalətli olmaq üçün yenidən konfiqurasiya etməyin həqiqətən mümkün olduğunu nümayiş etdirdi.

    Bununla belə, bəzi ekspertlər iddia edirlər ki, qərəzliyi aradan qaldırmaq potensial olaraq məlumat dəstini daha az təsirli edə bilər, xüsusən də birdən çox qərəzli yanaşmalar mövcud olduqda. Müəyyən qərəzlərdən təmizlənmiş məlumat dəsti effektiv istifadə üçün kifayət qədər məlumatdan məhrum ola bilər. Bu, həqiqətən müxtəlif görüntü məlumat dəstinin necə görünəcəyi və onun faydalılığını itirmədən necə istifadə oluna biləcəyi sualını doğurur.

    Bu tendensiya süni intellekt və verilənlərə əsaslanan texnologiyaların istifadəsinə düşünülmüş yanaşmanın zəruriliyini vurğulayır. Şirkətlər üçün bu, qərəzliyi aşkar edən alətlərə investisiya qoymaq və texnoloji qruplarda müxtəlifliyi təşviq etmək demək ola bilər. Hökumətlər üçün bu, süni intellektdən ədalətli istifadəni təmin etmək üçün qaydaların həyata keçirilməsini əhatə edə bilər. 

    AI qərəzinin nəticələri

    AI qərəzinin daha geniş təsirləri aşağıdakıları əhatə edə bilər:

    • Təşkilatlar məhsuldarlığı və performansı artırmaq üçün süni intellektdən istifadə edərək ədalətliliyi və ayrı-seçkiliyin qarşısını almaqda fəaldırlar. 
    • Layihənin əvvəlində etik riskləri aşkar etmək və azaltmaq üçün inkişaf qruplarında AI etikanın olması. 
    • Cins, irq, sinif və mədəniyyət kimi müxtəliflik faktorları ilə AI məhsullarının dizaynı aydın şəkildə nəzərə alınır.
    • Bir şirkətin süni intellekt məhsulunu buraxılmazdan əvvəl sınaqdan keçirmək üçün istifadə edəcək müxtəlif qruplardan nümayəndələr əldə etmək.
    • Müxtəlif ictimai xidmətlər ictimaiyyətin müəyyən üzvləri tərəfindən məhdudlaşdırılır.
    • İctimaiyyətin müəyyən üzvləri müəyyən iş imkanlarına daxil ola bilmir və ya uyğun gəlmir.
    • Hüquq-mühafizə orqanları və peşəkarlar ədalətsiz olaraq cəmiyyətin müəyyən üzvlərini digərlərindən daha çox hədəfə alırlar. 

    Nəzərə alınmalı suallar

    • Gələcəkdə avtomatlaşdırılmış qərarların qəbul edilməsinin ədalətli olacağına optimistsinizmi?
    • Süni intellektlə qərar qəbul etmək sizi ən çox əsəbiləşdirir?

    Anlayış istinadları

    Bu fikir üçün aşağıdakı məşhur və institusional bağlantılara istinad edilmişdir: