人工知能のバイアス: 機械は私たちが望んでいたほど客観的ではありません

画像クレジット:
画像著作権
iStock

人工知能のバイアス: 機械は私たちが望んでいたほど客観的ではありません

人工知能のバイアス: 機械は私たちが望んでいたほど客観的ではありません

小見出しのテキスト
AI は公平であるべきだということには誰もが同意するが、バイアスを取り除くことには問題があることがわかっている
    • 著者:
    • 著者名
      クォンタムラン・フォーサイト
    • 2022 年 2 月 8 日

    洞察の要約

    データ駆動型テクノロジーは公正な社会を促進する可能性を秘めていますが、多くの場合、人間が抱くのと同じ偏見を反映しており、潜在的な不公平につながります。 たとえば、人工知能 (AI) システムのバイアスにより、有害な固定観念が誤って悪化する可能性があります。 ただし、AI システムをより公平にするための取り組みが進行中ですが、これにより、実用性と公平性のバランス、および技術チームにおける思慮深い規制と多様性の必要性について複雑な疑問が生じます。

    AI バイアスの一般的な背景

    データによって駆動されるテクノロジーが、すべての人にとって公平性が標準となる社会を人類が確立するのに役立つことが期待されています。 しかし、現在の現実は異なる状況を描いています。 過去に不公平をもたらした人間の偏見の多くが、現在ではデジタル世界を管理するアルゴリズムに反映されています。 AI システムにおけるこうしたバイアスは、これらのシステムを開発する個人の偏見に由来することが多く、これらのバイアスが彼らの仕事に浸透することがよくあります。

    たとえば、ImageNet として知られる 2012 年のプロジェクトを考えてみましょう。このプロジェクトは、機械学習システムのトレーニング用の画像のラベル付けをクラウドソーシングすることを目的としていました。 このデータに基づいてトレーニングされた大規模なニューラル ネットワークは、その後、驚くべき精度でオブジェクトを識別することができました。 しかし、詳しく調べたところ、研究者らは ImageNet データ内に隠されたバイアスを発見しました。 ある特定のケースでは、このデータに基づいてトレーニングされたアルゴリズムは、すべてのソフトウェア プログラマーが白人男性であるという仮定に偏っていました。

    この偏見により、採用プロセスが自動化されると、そのような役割で女性が無視される可能性があります。 「女性」の画像にラベルを追加した個人が、軽蔑的な用語で構成される追加のラベルを含んでいたため、バイアスがデータセットに侵入しました。 この例は、意図的か非意図的かに関係なく、最も洗練された AI システムにもバイアスがどのように侵入し、有害な固定観念や不平等を永続させる可能性があるかを示しています。

    破壊的な影響 

    データとアルゴリズムの偏りに対処する取り組みが、さまざまな公的および民間組織の研究者によって開始されています。 たとえば、ImageNet プロジェクトの場合、特定の画像に軽蔑的な光を当てるラベル付け用語を特定し、削除するためにクラウドソーシングが採用されました。 これらの措置は、AI システムをより公平になるように再構成することが確かに可能であることを実証しました。

    しかし、一部の専門家は、特に複数のバイアスが作用している場合、バイアスを除去するとデータセットの効果が低下する可能性があると主張しています。 特定のバイアスが取り除かれたデータセットは、効果的に使用するのに十分な情報が不足してしまう可能性があります。 真に多様な画像データセットとはどのようなものなのか、またその有用性を損なうことなくどのように使用できるのかという疑問が生じます。

    この傾向は、AI およびデータ駆動型テクノロジーの使用に対する思慮深いアプローチの必要性を強調しています。 企業にとって、これはバイアス検出ツールに投資し、技術チームの多様性を促進することを意味するかもしれません。 政府にとっては、AI の公正な使用を確保するための規制の導入が含まれる可能性があります。 

    AI バイアスの影響

    AI バイアスの広範な影響には次のものが含まれる可能性があります。

    • 組織は、AI を活用して生産性とパフォーマンスを向上させる際に、公平性と無差別を確保することに積極的です。 
    • プロジェクトの早い段階で倫理的リスクを検出して軽減するために、開発チームに AI 倫理学者を配置する。 
    • 性別、人種、階級、文化などの多様性要因を明確に念頭に置いて AI 製品を設計する。
    • 企業の AI 製品を使用するさまざまなグループから代表者を集めて、リリース前にテストします。
    • 公共の特定のメンバーに対して制限されているさまざまな公共サービス。
    • 特定の雇用機会にアクセスできない、または資格を得ることができない一般市民の一部。
    • 法執行機関や専門家が、社会の特定の構成員を他の構成員よりも不当に標的にしています。 

    考慮すべき質問

    • 自動化された意思決定が将来的に公平になると楽観的ですか?
    • AI の意思決定について、最も神経質になることは何ですか?

    インサイトの参照

    この洞察のために、次の一般的な機関リンクが参照されました。