人工智能偏见:机器并不像我们希望的那样客观

图片来源:
图片来源
iStock

人工智能偏见:机器并不像我们希望的那样客观

人工智能偏见:机器并不像我们希望的那样客观

副标题文字
每个人都同意人工智能应该是公正的,但事实证明消除偏见是有问题的
    • 作者:
    • 作者姓名
      量子运行远见
    • 2022 年 2 月 8 日

    洞察总结

    虽然数据驱动的技术有望培育一个公平的社会,但它们往往反映出人类所怀有的偏见,从而导致潜在的不公正。 例如,人工智能(AI)系统的偏见可能会无意中加剧有害的刻板印象。 然而,人们正在努力使人工智能系统更加公平,尽管这引发了关于效用和公平之间的平衡以及技术团队需要深思熟虑的监管和多样性的复杂问题。

    人工智能偏见的一般背景

    希望数据驱动的技术将帮助人类建立一个以公平为常态的社会。 然而,当前的现实却描绘出不同的景象。 人类的许多偏见在过去导致了不公正,现在也反映在管理我们数字世界的算法中。 人工智能系统中的这些偏见通常源于开发这些系统的个人的偏见,并且这些偏见经常渗透到他们的工作中。

    以 2012 年的一个名为 ImageNet 的项目为例,该项目寻求众包图像标签来训练机器学习系统。 随后,根据这些数据训练的大型神经网络能够以令人印象深刻的准确度识别物体。 然而,经过仔细检查,研究人员发现 ImageNet 数据中隐藏着偏见。 在一个特定情况下,根据这些数据训练的算法偏向于所有软件程序员都是白人的假设。

    当招聘流程自动化时,这种偏见可能会导致女性在此类职位上被忽视。 这些偏见进入了数据集中,因为在“女性”图像上添加标签的个人添加了一个包含贬义词的附加标签。 这个例子说明了偏见,无论是有意还是无意,都可以渗透到最复杂的人工智能系统中,从而可能使有害的刻板印象和不平等现象长期存在。

    破坏性影响 

    各个公共和私人组织的研究人员已经开始努力解决数据和算法中的偏见。 例如,在 ImageNet 项目中,众包被用来识别和消除对某些图像产生贬义的标签术语。 这些措施表明,确实可以将人工智能系统重新配置得更加公平。

    然而,一些专家认为,消除偏见可能会降低数据集的有效性,特别是当存在多种偏见时。 去除某些偏差的数据集最终可能会缺乏有效使用的足够信息。 它提出了一个问题:真正多样化的图像数据集会是什么样子,以及如何在不损害其实用性的情况下使用它。

    这一趋势强调需要采取深思熟虑的方法来使用人工智能和数据驱动技术。 对于公司来说,这可能意味着投资偏见检测工具并促进技术团队的多样性。 对于政府来说,这可能涉及实施法规以确保人工智能的公平使用。 

    人工智能偏见的影响

    人工智能偏见的更广泛影响可能包括:

    • 组织在利用人工智能提高生产力和绩效时,积极主动地确保公平和非歧视。 
    • 在开发团队中配备一名 AI 伦理学家,以便在项目早期检测和减轻道德风险。 
    • 在设计人工智能产品时,要清楚地考虑性别、种族、阶级和文化等多样性因素。
    • 从将使用公司的人工智能产品的不同团体中获得代表,在产品发布之前对其进行测试。
    • 限制某些公众提供各种公共服务。
    • 某些公众成员无法获得或有资格获得某些工作机会。
    • 执法机构和专业人士比其他人更不公平地针对某些社会成员。 

    需要考虑的问题

    • 您是否乐观地认为未来的自动化决策将是公平的?
    • 人工智能决策让你最紧张的是什么?

    洞察参考

    此见解引用了以下流行和机构链接: