AI TRiSM:确保人工智能保持道德

图片来源:
图片来源
iStock

AI TRiSM:确保人工智能保持道德

AI TRiSM:确保人工智能保持道德

副标题文字
敦促公司制定明确定义人工智能边界的标准和政策。
    • 作者:
    • 作者姓名
      量子运行远见
    • 2023 年 10 月 20 日

    洞察总结

    2022年,研究公司Gartner推出了AI TRiSM,代表AI信任、风险和安全管理,以确保AI模型的治理和可靠性。 该框架由五个支柱组成:可解释性、模型操作、数据异常检测、抵抗对抗性攻击和数据保护。 该报告强调,人工智能风险管理不善可能会导致重大损失和安全漏洞。 实施 AI TRiSM 需要来自法律、合规、IT 和数据分析的跨职能团队。 该框架旨在建立一种“负责任的人工智能”文化,重点关注道德和法律问题,并可能影响人工智能的招聘趋势、政府法规和道德考虑。

    AI TRiSM 背景

    根据 Gartner 的说法,AI TriSM 有五个支柱:可解释性、模型操作(ModelOps)、数据异常检测、对抗性攻击和数据保护。 根据 Gartner 的预测,到 50 年,实施这些支柱的组织的人工智能模型在采用、业务目标和用户接受度方面的性能将提高 2026%。此外,人工智能驱动的机器将占全球劳动力的 20%到40年贡献整体经济生产力的2028%。

    Gartner 的调查结果表明,许多组织已经实施了数百或数千个 IT 高管无法理解或解释的人工智能模型。 未能充分管理人工智能相关风险的组织更容易遇到不利结果和违规行为。 这些模型可能无法按预期运行,从而导致安全和隐私侵犯,以及财务、个人和声誉损害。 人工智能的不准确实施还会导致组织做出错误的业务决策。

    为了成功实施 AI TRiSM,需要一支由法律、合规、安全、IT 和数据分析人员组成的跨职能团队。 建立一个专门的团队或工作组,由人工智能项目涉及的每个业务领域的适当代表也将产生最佳结果。 确保每个团队成员清楚地了解自己的角色和职责以及 AI TRiSM 计划的目的和目标也很重要。

    破坏性影响

    为了确保 AI 安全,Gartner 建议采取几个重要步骤。 首先,组织需要了解与人工智能相关的潜在风险以及如何减轻这些风险。 这项工作需要进行全面的风险评估,不仅考虑技术本身,还考虑其对人员、流程和环境的影响。

    其次,组织需要投资于人工智能治理,其中包括管理人工智能风险的政策、程序和控制措施。 该策略包括确保人工智能系统透明、可解释、负责并遵守相关法律法规。 此外,对人工智能模型的持续监控和审计对于识别和减轻随着时间的推移可能出现的任何潜在风险至关重要。 最后,组织需要发展人工智能安全文化,提高员工和利益相关者的意识、教育和培训。 这些步骤包括关于人工智能的道德使用、与人工智能相关的风险以及如何识别和报告问题或疑虑的培训。 

    这些努力可能会导致更多公司建立负责任的人工智能部门。 这一新兴的治理框架通过记录组织如何处理与人工智能相关的法律和道德障碍来解决这些障碍。 该框架及其相关举措希望消除歧义,以防止意外的负面后果。 负责任的人工智能框架的原则侧重于以有利于员工、为客户提供价值并对社会产生积极影响的方式设计、开发和使用人工智能。

    AI TRiSM 的影响

    AI TRiSM 的更广泛影响可能包括: 

    • 随着 AI TRiSM 变得越来越重要,公司将需要雇用更多熟悉该领域的技术工人,例如 AI 安全分析师、风险经理和伦理学家。
    • 新的伦理和道德考虑,例如使用人工智能系统时需要透明度、公平性和问责制。
    • 安全、值得信赖且可靠的人工智能增强创新。
    • 政府监管保护个人和组织免受人工智能系统相关风险的压力越来越大。
    • 更加注重确保人工智能系统不会对特定群体或个人产生偏见。
    • 为那些拥有人工智能技能的人提供新的机会,并有可能取代那些没有人工智能技能的人。
    • 增加能源消耗和数据存储容量,以不断更新训练数据。
    • 更多公司因不采用全球负责任的人工智能标准而被罚款。

    需要考虑的问题

    • 如果您从事人工智能工作,您的公司如何训练其算法符合道德规范?
    • 构建负责任的人工智能系统面临哪些挑战?

    洞察参考

    此见解引用了以下流行和机构链接: