AI TRiSM: Sicherstellen, dass KI ethisch bleibt

IMAGE CREDIT:
Bildnachweis
iStock

AI TRiSM: Sicherstellen, dass KI ethisch bleibt

AI TRiSM: Sicherstellen, dass KI ethisch bleibt

Untertiteltext
Unternehmen werden aufgefordert, Standards und Richtlinien zu schaffen, die die Grenzen der künstlichen Intelligenz klar definieren.
    • Autor:
    • Autorenname
      Quantumrun-Vorausschau
    • 20. Oktober 2023

    Zusammenfassung der Einblicke

    Im Jahr 2022 führte das Forschungsunternehmen Gartner AI TRiSM ein, das für AI Trust, Risk, and Security Management steht, um die Governance und Zuverlässigkeit von KI-Modellen sicherzustellen. Das Framework besteht aus fünf Säulen: Erklärbarkeit, Modelloperationen, Erkennung von Datenanomalien, Widerstand gegen gegnerische Angriffe und Datenschutz. Der Bericht hebt hervor, dass ein schlechtes Management von KI-Risiken zu erheblichen Verlusten und Sicherheitsverletzungen führen kann. Die Implementierung von AI TRiSM erfordert ein funktionsübergreifendes Team aus den Bereichen Recht, Compliance, IT und Datenanalyse. Das Rahmenwerk zielt darauf ab, eine Kultur der „verantwortungsvollen KI“ aufzubauen, die sich auf ethische und rechtliche Belange konzentriert und wahrscheinlich Einstellungstrends, staatliche Vorschriften und ethische Überlegungen in der KI beeinflussen wird.

    AI TRiSM-Kontext

    Laut Gartner besteht AI TriSM aus fünf Säulen: Erklärbarkeit, Modelloperationen (ModelOps), Erkennung von Datenanomalien, Widerstandsfähigkeit gegen gegnerische Angriffe und Datenschutz. Den Prognosen von Gartner zufolge werden Unternehmen, die diese Säulen umsetzen, bis 50 eine Steigerung der Leistung ihres KI-Modells in Bezug auf Akzeptanz, Geschäftsziele und Benutzerakzeptanz um 2026 Prozent verzeichnen. Darüber hinaus werden KI-gestützte Maschinen 20 Prozent der weltweiten Arbeitskräfte ausmachen und bis 40 2028 Prozent zur gesamtwirtschaftlichen Produktivität beitragen.

    Die Ergebnisse der Gartner-Umfrage legen nahe, dass viele Unternehmen Hunderte oder Tausende von KI-Modellen implementiert haben, die IT-Führungskräfte nicht verstehen oder interpretieren können. Organisationen, die KI-bezogene Risiken nicht angemessen managen, sind wesentlich anfälliger für ungünstige Ergebnisse und Verstöße. Die Modelle funktionieren möglicherweise nicht wie vorgesehen, was zu Sicherheits- und Datenschutzverletzungen sowie finanziellen, individuellen und rufschädigenden Folgen führen kann. Eine fehlerhafte Implementierung von KI kann auch dazu führen, dass Unternehmen falsche Geschäftsentscheidungen treffen.

    Für die erfolgreiche Implementierung von AI TRiSM ist ein funktionsübergreifendes Team aus Mitarbeitern aus den Bereichen Recht, Compliance, Sicherheit, IT und Datenanalyse erforderlich. Auch die Einrichtung eines eigenen Teams oder einer Task Force mit angemessener Vertretung aller am KI-Projekt beteiligten Geschäftsbereiche wird zu optimalen Ergebnissen führen. Es ist außerdem wichtig sicherzustellen, dass jedes Teammitglied seine Rollen und Verantwortlichkeiten sowie die Ziele und Vorgaben der AI TRiSM-Initiative klar versteht.

    Störende Wirkung

    Um KI sicher zu machen, empfiehlt Gartner mehrere wichtige Schritte. Erstens müssen Unternehmen die potenziellen Risiken im Zusammenhang mit KI erkennen und wissen, wie sie diese mindern können. Diese Bemühungen erfordern eine umfassende Risikobewertung, die nicht nur die Technologie selbst, sondern auch ihre Auswirkungen auf Menschen, Prozesse und die Umwelt berücksichtigt.

    Zweitens müssen Unternehmen in die KI-Governance investieren, die Richtlinien, Verfahren und Kontrollen für das Management von KI-Risiken umfasst. Zu dieser Strategie gehört es sicherzustellen, dass KI-Systeme transparent, erklärbar und rechenschaftspflichtig sind und den einschlägigen Gesetzen und Vorschriften entsprechen. Darüber hinaus sind die kontinuierliche Überwachung und Prüfung von KI-Modellen von entscheidender Bedeutung, um potenzielle Risiken, die im Laufe der Zeit auftreten können, zu erkennen und zu mindern. Schließlich müssen Unternehmen eine Kultur der KI-Sicherheit entwickeln und das Bewusstsein, die Bildung und die Schulung von Mitarbeitern und Interessengruppen fördern. Zu diesen Schritten gehören Schulungen zum ethischen Einsatz von KI, zu den mit KI verbundenen Risiken und zur Identifizierung und Meldung von Problemen oder Bedenken. 

    Diese Bemühungen werden wahrscheinlich dazu führen, dass mehr Unternehmen ihre Abteilungen für verantwortungsvolle KI aufbauen. Dieses neue Governance-Framework befasst sich mit den rechtlichen und ethischen Hindernissen im Zusammenhang mit KI, indem es dokumentiert, wie Organisationen diese angehen. Das Rahmenwerk und die damit verbundenen Initiativen zielen darauf ab, Unklarheiten zu beseitigen, um unbeabsichtigte negative Folgen zu verhindern. Die Prinzipien eines Responsible AI-Frameworks konzentrieren sich auf die Gestaltung, Entwicklung und Nutzung von KI auf eine Weise, die den Mitarbeitern zugute kommt, den Kunden einen Mehrwert bietet und sich positiv auf die Gesellschaft auswirkt.

    Implikationen von AI TRiSM

    Weitere Auswirkungen von AI TRiSM können sein: 

    • Da KI-TRiSM immer wichtiger wird, müssen Unternehmen mehr Fachkräfte mit Kenntnissen in diesem Bereich einstellen, beispielsweise KI-Sicherheitsanalysten, Risikomanager und Ethiker.
    • Neue ethische und moralische Überlegungen, wie etwa die Notwendigkeit von Transparenz, Fairness und Rechenschaftspflicht beim Einsatz von KI-Systemen.
    • KI-gestützte Innovationen, die sicher, vertrauenswürdig und zuverlässig sind.
    • Erhöhter Druck auf staatliche Regulierung, um Einzelpersonen und Organisationen vor den mit KI-Systemen verbundenen Risiken zu schützen.
    • Ein stärkerer Fokus darauf, sicherzustellen, dass KI-Systeme nicht voreingenommen gegenüber bestimmten Gruppen oder Einzelpersonen sind.
    • Neue Möglichkeiten für diejenigen mit KI-Kenntnissen und möglicherweise die Verdrängung derjenigen ohne KI-Kenntnisse.
    • Erhöhter Energieverbrauch und Datenspeicherkapazität für ständig aktualisierte Trainingsdaten.
    • Immer mehr Unternehmen werden mit Geldstrafen belegt, wenn sie die globalen Standards für verantwortungsvolle KI nicht übernehmen.

    Fragen zu berücksichtigen

    • Wenn Sie im Bereich KI arbeiten, wie trainiert Ihr Unternehmen seine Algorithmen so, dass sie ethisch sind?
    • Was sind die Herausforderungen beim Aufbau verantwortungsvoller KI-Systeme?

    Insight-Referenzen

    Für diesen Einblick wurde auf die folgenden beliebten und institutionellen Links verwiesen: