Künstliche Intelligenz voreingenommen: Maschinen sind nicht so objektiv, wie wir gehofft haben

IMAGE CREDIT:
Bildnachweis
iStock

Künstliche Intelligenz voreingenommen: Maschinen sind nicht so objektiv, wie wir gehofft haben

Künstliche Intelligenz voreingenommen: Maschinen sind nicht so objektiv, wie wir gehofft haben

Untertiteltext
Alle sind sich einig, dass KI unvoreingenommen sein sollte, aber das Entfernen von Vorurteilen erweist sich als problematisch
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 8. Februar 2022

    Zusammenfassung der Einblicke

    Während datengesteuerte Technologien versprechen, eine gerechte Gesellschaft zu fördern, spiegeln sie oft die gleichen Vorurteile wider, die auch Menschen hegen, was zu potenziellen Ungerechtigkeiten führen kann. Beispielsweise können Vorurteile in Systemen der künstlichen Intelligenz (KI) schädliche Stereotypen unbeabsichtigt verstärken. Es gibt jedoch Bemühungen, KI-Systeme gerechter zu gestalten. Dies wirft jedoch komplexe Fragen zum Gleichgewicht zwischen Nutzen und Gerechtigkeit sowie zur Notwendigkeit einer durchdachten Regulierung und Vielfalt in Technologieteams auf.

    Allgemeiner Kontext der KI-Voreingenommenheit

    Die Hoffnung besteht darin, dass datengesteuerte Technologien der Menschheit dabei helfen werden, eine Gesellschaft aufzubauen, in der Gerechtigkeit für alle die Norm ist. Die aktuelle Realität zeichnet jedoch ein anderes Bild. Viele der Vorurteile der Menschen, die in der Vergangenheit zu Ungerechtigkeiten geführt haben, spiegeln sich heute in den Algorithmen wider, die unsere digitale Welt steuern. Diese Vorurteile gegenüber KI-Systemen sind oft auf Vorurteile der Personen zurückzuführen, die diese Systeme entwickeln, und diese Vorurteile dringen häufig in ihre Arbeit ein.

    Nehmen Sie zum Beispiel ein Projekt namens ImageNet aus dem Jahr 2012, das darauf abzielte, die Kennzeichnung von Bildern für das Training maschineller Lernsysteme per Crowdsourcing zu nutzen. Ein auf diesen Daten trainiertes großes neuronales Netzwerk konnte anschließend Objekte mit beeindruckender Genauigkeit identifizieren. Bei näherer Betrachtung entdeckten die Forscher jedoch in den ImageNet-Daten verborgene Vorurteile. In einem bestimmten Fall ging ein auf diesen Daten trainierter Algorithmus davon aus, dass alle Softwareprogrammierer weiße Männer seien.

    Diese Voreingenommenheit könnte möglicherweise dazu führen, dass Frauen bei automatisierten Einstellungsprozessen für solche Rollen übersehen werden. Die Vorurteile fanden ihren Weg in die Datensätze, weil die einzelnen Personen, die den Bildern von „Frau“ Etiketten hinzufügten, zusätzlich ein Etikett enthielten, das aus einem abwertenden Begriff bestand. Dieses Beispiel zeigt, wie Vorurteile, ob beabsichtigt oder unbeabsichtigt, selbst die ausgefeiltesten KI-Systeme infiltrieren und möglicherweise schädliche Stereotypen und Ungleichheiten aufrechterhalten können.

    Störende Wirkung 

    Forscher verschiedener öffentlicher und privater Organisationen haben Anstrengungen unternommen, um Verzerrungen in Daten und Algorithmen entgegenzuwirken. Im Fall des ImageNet-Projekts wurde beispielsweise Crowdsourcing eingesetzt, um Kennzeichnungsbegriffe zu identifizieren und zu beseitigen, die ein abfälliges Licht auf bestimmte Bilder werfen. Diese Maßnahmen haben gezeigt, dass es tatsächlich möglich ist, KI-Systeme gerechter zu gestalten.

    Einige Experten argumentieren jedoch, dass die Beseitigung von Verzerrungen einen Datensatz möglicherweise weniger effektiv machen könnte, insbesondere wenn mehrere Verzerrungen im Spiel sind. Ein Datensatz, dem bestimmte Verzerrungen entzogen sind, kann am Ende dazu führen, dass es an ausreichenden Informationen für eine effektive Nutzung mangelt. Es stellt sich die Frage, wie ein wirklich vielfältiger Bilddatensatz aussehen würde und wie er verwendet werden könnte, ohne seinen Nutzen zu beeinträchtigen.

    Dieser Trend unterstreicht die Notwendigkeit eines durchdachten Ansatzes für den Einsatz von KI und datengesteuerten Technologien. Für Unternehmen könnte dies bedeuten, in Tools zur Erkennung von Vorurteilen zu investieren und die Vielfalt in Technologieteams zu fördern. Für Regierungen könnte es darum gehen, Vorschriften einzuführen, um eine faire Nutzung von KI sicherzustellen. 

    Auswirkungen der KI-Voreingenommenheit

    Weitere Auswirkungen der KI-Voreingenommenheit können sein:

    • Organisationen, die proaktiv Fairness und Nichtdiskriminierung sicherstellen, wenn sie KI nutzen, um Produktivität und Leistung zu verbessern. 
    • Einen KI-Ethiker in den Entwicklungsteams haben, um ethische Risiken früh in einem Projekt zu erkennen und zu mindern. 
    • Entwerfen von KI-Produkten unter klarer Berücksichtigung von Diversitätsfaktoren wie Geschlecht, Rasse, Klasse und Kultur.
    • Vertreter aus den verschiedenen Gruppen, die das KI-Produkt eines Unternehmens verwenden werden, dazu bringen, es zu testen, bevor es veröffentlicht wird.
    • Verschiedene öffentliche Dienstleistungen sind für bestimmte Mitglieder der Öffentlichkeit eingeschränkt.
    • Bestimmte Mitglieder der Öffentlichkeit haben keinen Zugang zu bestimmten Stellenangeboten oder können sich nicht für diese qualifizieren.
    • Strafverfolgungsbehörden und Fachleute zielen unfairerweise mehr auf bestimmte Mitglieder der Gesellschaft als auf andere ab. 

    Fragen zu berücksichtigen

    • Sind Sie optimistisch, dass die automatisierte Entscheidungsfindung in Zukunft fair sein wird?
    • Was an der KI-Entscheidungsfindung macht Sie am nervössten?

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen: