Bias kecerdasan buatan: Mesin tidak seobjektif yang kita harapkan

KREDIT GAMBAR:
Gambar kredit
iStock

Bias kecerdasan buatan: Mesin tidak seobjektif yang kita harapkan

Bias kecerdasan buatan: Mesin tidak seobjektif yang kita harapkan

Teks subjudul
Semua orang setuju bahwa AI seharusnya tidak memihak, tetapi menghilangkan bias terbukti bermasalah
    • Penulis:
    • nama penulis
      Pandangan ke Depan Quantumrun
    • Februari 8, 2022

    Ringkasan wawasan

    Meskipun teknologi berbasis data menjanjikan untuk menciptakan masyarakat yang adil, teknologi tersebut sering kali mencerminkan bias yang sama dengan yang dimiliki manusia, sehingga berpotensi menimbulkan ketidakadilan. Misalnya, bias dalam sistem kecerdasan buatan (AI) secara tidak sengaja dapat memperburuk stereotip yang merugikan. Namun, upaya sedang dilakukan untuk menjadikan sistem AI lebih adil, meskipun hal ini menimbulkan pertanyaan kompleks tentang keseimbangan antara utilitas dan keadilan, serta perlunya regulasi yang bijaksana dan keberagaman dalam tim teknologi.

    Konteks umum bias AI

    Harapannya adalah bahwa teknologi yang didorong oleh data akan membantu umat manusia dalam membangun masyarakat di mana keadilan adalah norma bagi semua orang. Namun, kenyataan saat ini memberikan gambaran berbeda. Banyak bias yang dimiliki manusia, yang menyebabkan ketidakadilan di masa lalu, kini tercermin dalam algoritma yang mengatur dunia digital kita. Bias dalam sistem AI sering kali berasal dari prasangka individu yang mengembangkan sistem ini, dan bias ini sering kali meresap ke dalam pekerjaan mereka.

    Ambil contoh, sebuah proyek pada tahun 2012 yang dikenal sebagai ImageNet, yang berupaya melakukan crowdsourcing pelabelan gambar untuk pelatihan sistem pembelajaran mesin. Jaringan saraf besar yang dilatih berdasarkan data ini kemudian mampu mengidentifikasi objek dengan akurasi yang mengesankan. Namun, setelah diperiksa lebih dekat, para peneliti menemukan bias yang tersembunyi di dalam data ImageNet. Dalam satu kasus tertentu, algoritme yang dilatih berdasarkan data ini bias terhadap asumsi bahwa semua pemrogram perangkat lunak adalah orang kulit putih.

    Bias ini berpotensi mengakibatkan perempuan diabaikan dalam peran tersebut ketika proses perekrutan dilakukan secara otomatis. Bias ini muncul dalam kumpulan data karena individu yang menambahkan label pada gambar "wanita" menyertakan label tambahan yang berisi istilah yang menghina. Contoh ini menggambarkan bagaimana bias, baik disengaja maupun tidak, dapat menyusup ke dalam sistem AI yang paling canggih sekalipun, sehingga berpotensi melanggengkan stereotip dan kesenjangan yang merugikan.

    Dampak yang mengganggu 

    Upaya untuk mengatasi bias dalam data dan algoritma telah dimulai oleh para peneliti di berbagai organisasi publik dan swasta. Dalam kasus proyek ImageNet, misalnya, crowdsourcing digunakan untuk mengidentifikasi dan menghilangkan istilah pelabelan yang merendahkan gambar tertentu. Langkah-langkah ini menunjukkan bahwa konfigurasi ulang sistem AI agar lebih adil dapat dilakukan.

    Namun, beberapa ahli berpendapat bahwa menghilangkan bias berpotensi membuat kumpulan data menjadi kurang efektif, terutama ketika ada banyak bias yang berperan. Kumpulan data yang tidak memiliki bias tertentu mungkin akan kekurangan informasi agar dapat digunakan secara efektif. Hal ini menimbulkan pertanyaan tentang seperti apa kumpulan data gambar yang benar-benar beragam, dan bagaimana kumpulan data tersebut dapat digunakan tanpa mengurangi kegunaannya.

    Tren ini menggarisbawahi perlunya pendekatan yang bijaksana terhadap penggunaan AI dan teknologi berbasis data. Bagi perusahaan, hal ini mungkin berarti berinvestasi pada alat pendeteksi bias dan mendorong keberagaman dalam tim teknologi. Bagi pemerintah, hal ini dapat melibatkan penerapan peraturan untuk memastikan penggunaan AI yang adil. 

    Implikasi bias AI

    Implikasi yang lebih luas dari bias AI dapat mencakup:

    • Organisasi menjadi proaktif dalam memastikan keadilan dan non-diskriminasi saat mereka memanfaatkan AI untuk meningkatkan produktivitas dan kinerja. 
    • Memiliki ahli etika AI dalam tim pengembangan untuk mendeteksi dan mengurangi risiko etika di awal proyek. 
    • Merancang produk AI dengan mempertimbangkan faktor keragaman seperti gender, ras, kelas, dan budaya dengan jelas.
    • Mendapatkan perwakilan dari berbagai kelompok yang akan menggunakan produk AI perusahaan untuk mengujinya sebelum dirilis.
    • Berbagai pelayanan publik dibatasi dari anggota masyarakat tertentu.
    • Anggota masyarakat tertentu tidak dapat mengakses atau memenuhi syarat untuk kesempatan kerja tertentu.
    • Lembaga penegak hukum dan profesional secara tidak adil menargetkan anggota masyarakat tertentu lebih dari yang lain. 

    Pertanyaan untuk dipertimbangkan

    • Apakah Anda optimis bahwa pengambilan keputusan otomatis akan adil di masa depan?
    • Bagaimana dengan pengambilan keputusan AI yang paling membuat Anda gugup?

    Referensi wawasan

    Tautan populer dan institusional berikut dirujuk untuk wawasan ini: