人工智能偏見:機器並不像我們希望的那樣客觀

圖片來源:
圖片來源
iStock

人工智能偏見:機器並不像我們希望的那樣客觀

人工智能偏見:機器並不像我們希望的那樣客觀

副標題文字
每個人都同意人工智能應該是公正的,但事實證明消除偏見是有問題的
    • 作者:
    • 作者姓名
      量子運行遠見
    • 2022 年 2 月 8 日

    洞察總結

    雖然數據驅動的技術有望培育一個公平的社會,但它們往往反映出人類所懷有的偏見,從而導致潛在的不公正。 例如,人工智能(AI)系統的偏見可能會無意中加劇有害的刻板印象。 然而,人們正在努力使人工智能係統更加公平,儘管這引發了關於效用和公平之間的平衡以及技術團隊需要深思熟慮的監管和多樣性的複雜問題。

    人工智能偏見的一般背景

    希望數據驅動的技術將幫助人類建立一個以公平為常態的社會。 然而,當前的現實卻描繪出不同的景象。 人類的許多偏見在過去導致了不公正,現在也反映在管理我們數字世界的算法中。 人工智能係統中的這些偏見通常源於開發這些系統的個人的偏見,並且這些偏見經常滲透到他們的工作中。

    以 2012 年的一個名為 ImageNet 的項目為例,該項目尋求眾包圖像標籤來訓練機器學習系統。 隨後,根據這些數據訓練的大型神經網絡能夠以令人印象深刻的準確度識別物體。 然而,經過仔細檢查,研究人員發現 ImageNet 數據中隱藏著偏見。 在一個特定情況下,根據這些數據訓練的算法偏向於所有軟件程序員都是白人的假設。

    當招聘流程自動化時,這種偏見可能會導致女性在此類職位上被忽視。 這些偏見進入了數據集中,因為在“女性”圖像上添加標籤的個人添加了一個包含貶義詞的附加標籤。 這個例子說明了偏見,無論是有意還是無意,都可以滲透到最複雜的人工智能係統中,從而可能使有害的刻板印象和不平等現象長期存在。

    破壞性影響 

    各個公共和私人組織的研究人員已經開始努力解決數據和算法中的偏見。 例如,在 ImageNet 項目中,眾包被用來識別和消除對某些圖像產生貶義的標籤術語。 這些措施表明,確實可以將人工智能係統重新配置得更加公平。

    然而,一些專家認為,消除偏見可能會降低數據集的有效性,特別是當存在多種偏見時。 去除某些偏差的數據集最終可能會缺乏有效使用的足夠信息。 它提出了一個問題:真正多樣化的圖像數據集會是什麼樣子,以及如何在不損害其實用性的情況下使用它。

    這一趨勢強調需要採取深思熟慮的方法來使用人工智能和數據驅動技術。 對於公司來說,這可能意味著投資偏見檢測工具並促進技術團隊的多樣性。 對於政府來說,這可能涉及實施法規以確保人工智能的公平使用。 

    人工智能偏見的影響

    人工智能偏見的更廣泛影響可能包括:

    • 組織在利用人工智能提高生產力和績效時,積極主動地確保公平和非歧視。 
    • 在開發團隊中配備 AI 倫理學家,以便在項目早期檢測和減輕道德風險。 
    • 在設計人工智能產品時,要清楚地考慮性別、種族、階級和文化等多樣性因素。
    • 從將使用公司的人工智能產品的不同團體中獲得代表,在產品發布之前對其進行測試。
    • 限制某些公眾提供各種公共服務。
    • 某些公眾成員無法獲得或有資格獲得某些工作機會。
    • 執法機構和專業人士比其他人更不公平地針對某些社會成員。 

    需要考慮的問題

    • 您是否樂觀地認為未來的自動化決策將是公平的?
    • 人工智能決策讓你最緊張的是什麼?

    洞察參考

    此見解引用了以下流行和機構鏈接: