AI TRiSM: Đảm bảo rằng AI vẫn có đạo đức

TÍN DỤNG HÌNH ẢNH:
Tín dụng hình ảnh
iStock

AI TRiSM: Đảm bảo rằng AI vẫn có đạo đức

AI TRiSM: Đảm bảo rằng AI vẫn có đạo đức

Văn bản tiêu đề phụ
Các công ty được khuyến khích tạo ra các tiêu chuẩn và chính sách xác định rõ ràng ranh giới của trí tuệ nhân tạo.
    • tác giả:
    • tên tác giả
      Tầm nhìn lượng tử
    • 20 Tháng Mười

    Tóm tắt thông tin chi tiết

    Vào năm 2022, công ty nghiên cứu Gartner đã giới thiệu AI TRiSM, viết tắt của AI Trust, Risk và Security Management, để đảm bảo khả năng quản trị và độ tin cậy của các mô hình AI. Khung này bao gồm năm trụ cột: khả năng giải thích, vận hành mô hình, phát hiện sự bất thường của dữ liệu, khả năng chống lại các cuộc tấn công bất lợi và bảo vệ dữ liệu. Báo cáo nhấn mạnh rằng việc quản lý rủi ro AI kém có thể dẫn đến tổn thất đáng kể và vi phạm an ninh. Việc triển khai AI TRiSM yêu cầu một nhóm đa chức năng từ phân tích pháp lý, tuân thủ, CNTT và dữ liệu. Khung này nhằm mục đích xây dựng văn hóa "AI có trách nhiệm", tập trung vào các mối quan tâm về đạo đức và pháp lý, đồng thời có khả năng ảnh hưởng đến xu hướng tuyển dụng, quy định của chính phủ và các cân nhắc về đạo đức trong AI.

    Bối cảnh AI TRISM

    Theo Gartner, AI TriSM có năm trụ cột: khả năng giải thích, Hoạt động mô hình (ModelOps), phát hiện sự bất thường của dữ liệu, khả năng chống tấn công đối nghịch và bảo vệ dữ liệu. Dựa trên dự đoán của Gartner, các tổ chức triển khai các trụ cột này sẽ chứng kiến ​​hiệu suất mô hình AI của họ tăng 50% liên quan đến việc áp dụng, mục tiêu kinh doanh và sự chấp nhận của người dùng vào năm 2026. Ngoài ra, máy móc hỗ trợ AI sẽ chiếm 20% lực lượng lao động trên thế giới và đóng góp 40% năng suất kinh tế tổng thể vào năm 2028.

    Kết quả khảo sát của Gartner cho thấy nhiều tổ chức đã triển khai hàng trăm hoặc hàng nghìn mô hình AI mà các nhà điều hành CNTT không thể hiểu hoặc giải thích được. Các tổ chức không quản lý đầy đủ các rủi ro liên quan đến AI sẽ dễ gặp phải những kết quả bất lợi và vi phạm hơn. Các mô hình có thể không hoạt động như dự định, dẫn đến vi phạm an ninh và quyền riêng tư, đồng thời gây tổn hại về tài chính, cá nhân và danh tiếng. Việc triển khai AI không chính xác cũng có thể khiến các tổ chức đưa ra quyết định kinh doanh sai lầm.

    Để triển khai thành công AI TRiSM, cần có một nhóm đa chức năng gồm nhân viên pháp lý, tuân thủ, bảo mật, CNTT và phân tích dữ liệu. Thành lập một nhóm hoặc lực lượng đặc nhiệm chuyên trách với sự đại diện phù hợp từ từng lĩnh vực kinh doanh liên quan đến dự án AI cũng sẽ mang lại kết quả tối ưu. Điều cần thiết nữa là phải đảm bảo rằng mỗi thành viên trong nhóm hiểu rõ vai trò và trách nhiệm của mình cũng như các mục tiêu và mục tiêu của sáng kiến ​​AI TRiSM.

    Tác động gián đoạn

    Để làm cho AI an toàn, Gartner khuyến nghị một số bước quan trọng. Đầu tiên, các tổ chức cần nắm bắt những rủi ro tiềm ẩn liên quan đến AI và cách giảm thiểu chúng. Nỗ lực này yêu cầu đánh giá rủi ro toàn diện, không chỉ xem xét bản thân công nghệ mà còn xem xét tác động của nó đối với con người, quy trình và môi trường.

    Thứ hai, các tổ chức cần đầu tư vào quản trị AI, bao gồm các chính sách, thủ tục và biện pháp kiểm soát để quản lý rủi ro AI. Chiến lược này bao gồm việc đảm bảo rằng các hệ thống AI minh bạch, có thể giải thích, chịu trách nhiệm và tuân thủ các luật và quy định liên quan. Ngoài ra, việc giám sát và kiểm tra liên tục các mô hình AI là rất quan trọng để xác định và giảm thiểu mọi rủi ro tiềm ẩn có thể phát sinh theo thời gian. Cuối cùng, các tổ chức cần phát triển văn hóa an toàn AI, nâng cao nhận thức, giáo dục và đào tạo giữa nhân viên và các bên liên quan. Các bước này bao gồm đào tạo về cách sử dụng AI có đạo đức, các rủi ro liên quan đến AI cũng như cách xác định và báo cáo các vấn đề hoặc mối lo ngại. 

    Những nỗ lực này có thể sẽ dẫn đến việc nhiều công ty xây dựng bộ phận AI có trách nhiệm hơn. Khung quản trị mới nổi này giải quyết các trở ngại pháp lý và đạo đức liên quan đến AI bằng cách ghi lại cách các tổ chức tiếp cận chúng. Khuôn khổ này và các sáng kiến ​​liên quan muốn loại bỏ sự mơ hồ nhằm ngăn chặn những hậu quả tiêu cực ngoài ý muốn. Các nguyên tắc của khuôn khổ AI có trách nhiệm tập trung vào việc thiết kế, phát triển và sử dụng AI theo cách mang lại lợi ích cho nhân viên, mang lại giá trị cho khách hàng và tác động tích cực đến xã hội.

    Ý nghĩa của AI TRISM

    Ý nghĩa rộng hơn của AI TRiSM có thể bao gồm: 

    • Khi AI TRiSM ngày càng trở nên quan trọng, các công ty sẽ cần thuê thêm những công nhân lành nghề am hiểu lĩnh vực này, chẳng hạn như nhà phân tích bảo mật AI, nhà quản lý rủi ro và nhà đạo đức.
    • Những cân nhắc mới về đạo đức và đạo đức, chẳng hạn như nhu cầu về tính minh bạch, công bằng và trách nhiệm giải trình trong việc sử dụng hệ thống AI.
    • Những cải tiến được tăng cường bởi AI mang lại sự an toàn, đáng tin cậy và đáng tin cậy.
    • Áp lực ngày càng tăng đối với quy định của chính phủ nhằm bảo vệ các cá nhân và tổ chức khỏi những rủi ro liên quan đến hệ thống AI.
    • Tập trung nhiều hơn vào việc đảm bảo rằng các hệ thống AI không thiên vị đối với các nhóm hoặc cá nhân cụ thể.
    • Cơ hội mới cho những người có kỹ năng AI và có khả năng thay thế những người không có chúng.
    • Tăng mức tiêu thụ năng lượng và dung lượng lưu trữ dữ liệu để dữ liệu đào tạo được cập nhật liên tục.
    • Nhiều công ty bị phạt vì không áp dụng các tiêu chuẩn AI có trách nhiệm toàn cầu

    Các câu hỏi cần xem xét

    • Nếu bạn làm việc trong lĩnh vực AI, công ty của bạn đào tạo các thuật toán của mình như thế nào để có đạo đức?
    • Những thách thức của việc xây dựng hệ thống AI có trách nhiệm là gì?

    Tham khảo thông tin chi tiết

    Các liên kết phổ biến và liên kết thể chế sau đây đã được tham chiếu cho thông tin chi tiết này: