AI TRiSM: AI가 윤리적으로 유지되도록 보장

이미지 크레딧:
이미지 크레딧
iStock

AI TRiSM: AI가 윤리적으로 유지되도록 보장

AI TRiSM: AI가 윤리적으로 유지되도록 보장

소제목 텍스트
기업은 인공지능의 경계를 명확하게 정의하는 표준과 정책을 마련해야 합니다.
    • 저자:
    • 저자 이름
      퀀텀런 예측
    • 2023 년 10 월 20 일

    인사이트 요약

    2022년, 리서치 회사인 Gartner는 AI 모델의 거버넌스와 신뢰성을 보장하기 위해 AI 신뢰, 위험 및 보안 관리를 뜻하는 AI TRiSM을 도입했습니다. 프레임워크는 설명 가능성, 모델 운영, 데이터 이상 탐지, 적대적 공격에 대한 저항, 데이터 보호라는 XNUMX가지 요소로 구성됩니다. 보고서는 AI 위험을 제대로 관리하지 않으면 심각한 손실과 보안 침해로 이어질 수 있음을 강조합니다. AI TRiSM을 구현하려면 법률, 규정 준수, IT, 데이터 분석 등 다양한 기능을 갖춘 팀이 필요합니다. 이 프레임워크는 윤리적, 법적 문제에 초점을 맞춘 '책임 있는 AI' 문화 구축을 목표로 하며, 채용 동향, 정부 규제, AI의 윤리적 고려 사항에 영향을 미칠 가능성이 높습니다.

    AI TRiSM 컨텍스트

    Gartner에 따르면 AI TriSM에는 설명 가능성, 모델 운영(ModelOps), 데이터 이상 탐지, 적대적 공격 저항, 데이터 보호라는 50가지 핵심 요소가 있습니다. Gartner의 예측에 따르면 이러한 원칙을 구현하는 조직은 2026년까지 채택, 비즈니스 목표 및 사용자 수용과 관련하여 AI 모델 성능이 20% 향상되는 것을 목격할 것입니다. 또한 AI 기반 기계는 전 세계 인력의 40%를 차지할 것입니다. 2028년까지 전체 경제 생산성의 XNUMX%를 기여합니다.

    Gartner의 설문조사 결과에 따르면 많은 조직에서 IT 경영진이 이해하거나 해석할 수 없는 수백 또는 수천 개의 AI 모델을 구현한 것으로 나타났습니다. AI 관련 위험을 적절하게 관리하지 않는 조직은 불리한 결과와 위반에 직면할 가능성이 훨씬 더 높습니다. 모델이 의도한 대로 작동하지 않을 수 있으며, 이로 인해 보안 및 개인정보 침해가 발생하고 재정적, 개인적, 평판에 해를 끼칠 수 있습니다. AI를 부정확하게 구현하면 조직이 잘못된 비즈니스 결정을 내릴 수도 있습니다.

    AI TRiSM을 성공적으로 구현하려면 법률, 규정 준수, 보안, IT 및 데이터 분석 인력으로 구성된 다기능 팀이 필요합니다. AI 프로젝트와 관련된 각 사업 분야를 적절하게 대표하는 전담팀이나 태스크 포스를 구성하는 것도 최적의 결과를 얻을 수 있습니다. 또한 각 팀원이 자신의 역할과 책임은 물론 AI TRiSM 이니셔티브의 목표와 목표를 명확하게 이해하고 있는지 확인하는 것도 중요합니다.

    파괴적 영향

    AI를 안전하게 만들기 위해 Gartner는 몇 가지 중요한 단계를 권장합니다. 첫째, 조직은 AI와 관련된 잠재적 위험과 이를 완화하는 방법을 파악해야 합니다. 이러한 노력에는 기술 자체뿐만 아니라 기술이 사람, 프로세스 및 환경에 미치는 영향도 고려하는 포괄적인 위험 평가가 필요합니다.

    둘째, 조직은 AI 위험 관리를 위한 정책, 절차, 통제를 포함하는 AI 거버넌스에 투자해야 합니다. 이 전략에는 AI 시스템이 투명하고 설명 가능하며 책임이 있고 관련 법률 및 규정을 준수하도록 보장하는 것이 포함됩니다. 또한 시간이 지남에 따라 발생할 수 있는 잠재적 위험을 식별하고 완화하려면 AI 모델을 지속적으로 모니터링하고 감사하는 것이 중요합니다. 마지막으로, 조직은 AI 안전 문화를 개발하여 직원과 이해관계자 간의 인식, 교육 및 훈련을 촉진해야 합니다. 이러한 단계에는 AI의 윤리적 사용, AI와 관련된 위험, 문제 또는 우려 사항을 식별하고 보고하는 방법에 대한 교육이 포함됩니다. 

    이러한 노력으로 인해 더 많은 기업이 책임 있는 AI 부서를 구축하게 될 것입니다. 이 새로운 거버넌스 프레임워크는 조직이 AI에 접근하는 방식을 문서화하여 AI와 관련된 법적, 윤리적 장애물을 해결합니다. 프레임워크와 관련 이니셔티브는 의도하지 않은 부정적인 결과를 방지하기 위해 모호성을 제거하려고 합니다. 책임 있는 AI 프레임워크의 원칙은 직원에게 이익을 주고 고객에게 가치를 제공하며 사회에 긍정적인 영향을 미치는 방식으로 AI를 설계, 개발 및 사용하는 데 중점을 둡니다.

    AI TRiSM의 의미

    AI TRiSM의 더 넓은 의미는 다음과 같습니다. 

    • AI TRiSM이 점점 중요해짐에 따라 기업은 AI 보안 분석가, 위험 관리자, 윤리학자 등 이 분야에 대한 지식이 풍부한 숙련된 인력을 고용해야 합니다.
    • AI 시스템 사용에 있어 투명성, 공정성, 책임의 필요성과 같은 새로운 윤리적, 도덕적 고려 사항.
    • 안전하고 신뢰할 수 있는 AI 증강 혁신입니다.
    • AI 시스템과 관련된 위험으로부터 개인과 조직을 보호하기 위한 정부 규제에 대한 압력이 증가했습니다.
    • AI 시스템이 특정 그룹이나 개인에 대해 편견을 갖지 않도록 하는 데 더 중점을 둡니다.
    • AI 기술을 갖춘 사람들과 AI 기술이 없는 사람들을 잠재적으로 대체할 수 있는 새로운 기회.
    • 지속적으로 업데이트되는 교육 데이터에 대한 에너지 소비 및 데이터 저장 용량이 증가합니다.
    • 글로벌 책임 있는 AI 표준을 채택하지 않아 벌금을 부과받는 기업이 늘어나고 있습니다.

    고려해야 할 질문

    • AI 분야에서 일하는 경우 회사에서는 알고리즘을 윤리적으로 교육하는 방법을 알고 있나요?
    • 책임 있는 AI 시스템을 구축할 때의 과제는 무엇입니까?

    통찰력 참조

    이 통찰력을 위해 다음과 같은 인기 있는 기관 링크를 참조했습니다.