Yapay zeka yanlılığı: Makineler umduğumuz kadar objektif değil

GÖRÜNTÜ KREDİSİ:
Resim kredi
iStock

Yapay zeka yanlılığı: Makineler umduğumuz kadar objektif değil

Yapay zeka yanlılığı: Makineler umduğumuz kadar objektif değil

Alt başlık metni
AI'nın tarafsız olması gerektiği konusunda herkes hemfikir, ancak önyargıları ortadan kaldırmak sorunlu görünüyor
    • Yazar:
    • Yazar adı
      Kuantumrun Öngörüsü
    • Şubat 8, 2022

    Analiz özeti

    Veriye dayalı teknolojiler adil bir toplumu teşvik etme vaadinde bulunurken, çoğu zaman insanların barındırdığı önyargıların aynısını yansıtarak potansiyel adaletsizliklere yol açıyor. Örneğin, yapay zeka (AI) sistemlerindeki önyargılar, istemeden de olsa zararlı stereotipleri kötüleştirebilir. Bununla birlikte, yapay zeka sistemlerini daha eşitlikçi hale getirmek için çabalar sürüyor; ancak bu, fayda ile adalet arasındaki denge ve teknoloji ekiplerindeki düşünceli düzenleme ve çeşitlilik ihtiyacı hakkında karmaşık soruları gündeme getiriyor.

    Yapay zeka önyargısı genel bağlamı

    Umut, verilerle yönlendirilen teknolojilerin, adaletin herkes için norm olduğu bir toplum kurmada insanlığa yardımcı olacağıdır. Ancak mevcut gerçeklik farklı bir tablo çiziyor. Geçmişte adaletsizliklere yol açan insanların sahip olduğu önyargıların çoğu, artık dijital dünyamızı yöneten algoritmalara da yansıyor. Yapay zeka sistemlerindeki bu önyargılar çoğunlukla bu sistemleri geliştiren bireylerin önyargılarından kaynaklanıyor ve bu önyargılar sıklıkla onların çalışmalarına da sızıyor.

    Örneğin, 2012 yılında ImageNet olarak bilinen ve makine öğrenimi sistemlerinin eğitimi için görüntülerin etiketlenmesinde kitlesel kaynak sağlamayı amaçlayan bir projeyi ele alalım. Bu verilerle eğitilen büyük bir sinir ağı, daha sonra nesneleri etkileyici bir doğrulukla tanımlamayı başardı. Ancak daha yakından incelendiğinde araştırmacılar ImageNet verilerinin içinde saklı önyargıları keşfettiler. Belirli bir durumda, bu veriler üzerinde eğitilen bir algoritma, tüm yazılım programcılarının beyaz adam olduğu varsayımına yöneldi.

    Bu önyargı, işe alım süreci otomatikleştirildiğinde potansiyel olarak kadınların bu tür roller için gözden kaçırılmasına neden olabilir. Önyargılar veri setlerine de yansıdı çünkü "kadın" görsellerine etiket ekleyen kişi, aşağılayıcı bir terimden oluşan ek bir etiket içeriyordu. Bu örnek, kasıtlı veya kasıtsız önyargıların, en karmaşık yapay zeka sistemlerine bile nasıl sızabileceğini ve potansiyel olarak zararlı stereotipleri ve eşitsizlikleri nasıl sürdürebileceğini gösteriyor.

    Yıkıcı etki 

    Çeşitli kamu ve özel kuruluşlardaki araştırmacılar tarafından veri ve algoritmalardaki önyargıları gidermeye yönelik çabalar başlatılmıştır. Örneğin ImageNet projesi örneğinde, belirli görsellere aşağılayıcı bir ışık tutan etiketleme terimlerini belirlemek ve ortadan kaldırmak için kitle kaynak kullanımından yararlanıldı. Bu önlemler, yapay zeka sistemlerini daha adil olacak şekilde yeniden yapılandırmanın gerçekten mümkün olduğunu gösterdi.

    Ancak bazı uzmanlar, önyargının kaldırılmasının, özellikle birden fazla önyargı söz konusu olduğunda veri setini potansiyel olarak daha az etkili hale getirebileceğini savunuyor. Belirli önyargılardan arındırılmış bir veri seti, etkili kullanım için yeterli bilginin eksik kalmasına neden olabilir. Bu durum, gerçek anlamda çeşitliliğe sahip bir görüntü veri setinin neye benzeyeceği ve kullanışlılığından ödün vermeden nasıl kullanılabileceği sorusunu gündeme getiriyor.

    Bu eğilim, yapay zeka ve veriye dayalı teknolojilerin kullanımına yönelik düşünceli bir yaklaşıma duyulan ihtiyacın altını çiziyor. Şirketler için bu, önyargı tespit araçlarına yatırım yapmak ve teknoloji ekiplerinde çeşitliliği teşvik etmek anlamına gelebilir. Hükümetler için bu, yapay zekanın adil kullanımını sağlayacak düzenlemelerin uygulanmasını içerebilir. 

    Yapay zeka önyargısının sonuçları

    Yapay zeka önyargısının daha geniş etkileri şunları içerebilir:

    • Verimliliği ve performansı artırmak için yapay zekadan yararlanırken adalet ve ayrımcılık yapmama konusunda proaktif olan kuruluşlar. 
    • Bir projenin başlarında etik riskleri tespit etmek ve azaltmak için geliştirme ekiplerinde bir yapay zeka etiği uzmanına sahip olmak. 
    • Yapay zeka ürünlerini cinsiyet, ırk, sınıf ve kültür gibi çeşitlilik faktörlerini açıkça göz önünde bulundurarak tasarlamak.
    • Bir şirketin AI ürününü piyasaya sürülmeden önce test etmek için kullanacak olan çeşitli gruplardan temsilciler almak.
    • Çeşitli kamu hizmetlerinin halkın belirli üyeleri tarafından kısıtlanması.
    • Halkın belirli üyelerinin belirli iş fırsatlarına erişememesi veya hak kazanamaması.
    • Kolluk kuvvetleri ve profesyonellerin toplumun belirli üyelerini diğerlerinden daha fazla haksız yere hedef alması. 

    Dikkate alınması gereken sorular

    • Otomatik karar vermenin gelecekte adil olacağı konusunda iyimser misiniz?
    • AI karar verme süreci sizi en çok gergin yapan şey ne olacak?

    Analiz referansları

    Bu içgörü için aşağıdaki popüler ve kurumsal bağlantılara başvurulmuştur: