AI TRiSM: Memastikan AI kekal beretika

KREDIT GAMBAR:
Kredit Image
iStock

AI TRiSM: Memastikan AI kekal beretika

AI TRiSM: Memastikan AI kekal beretika

Teks subtajuk
Syarikat digesa untuk mewujudkan piawaian dan dasar yang jelas mentakrifkan sempadan kecerdasan buatan.
    • Pengarang
    • Nama pengarang
      Quantumrun Foresight
    • Oktober 20, 2023

    Ringkasan cerapan

    Pada 2022, firma penyelidikan Gartner memperkenalkan AI TRiSM, singkatan untuk AI Trust, Risk, and Security Management, untuk memastikan tadbir urus dan kebolehpercayaan model AI. Rangka kerja ini terdiri daripada lima tiang: kebolehjelasan, operasi model, pengesanan anomali data, penentangan terhadap serangan musuh dan perlindungan data. Laporan itu menyerlahkan bahawa pengurusan risiko AI yang lemah boleh menyebabkan kerugian besar dan pelanggaran keselamatan. Melaksanakan AI TRiSM memerlukan pasukan rentas fungsi daripada perundangan, pematuhan, IT dan analitik data. Rangka kerja ini bertujuan untuk membina budaya "AI Bertanggungjawab", memfokuskan pada kebimbangan etika dan undang-undang, dan berkemungkinan mempengaruhi trend pengambilan pekerja, peraturan kerajaan dan pertimbangan etika dalam AI.

    Konteks AI TRiSM

    Menurut Gartner, terdapat lima tiang kepada AI TriSM: kebolehjelasan, Operasi Model (ModelOps), pengesanan anomali data, rintangan serangan musuh dan perlindungan data. Berdasarkan unjuran Gartner, organisasi yang melaksanakan tonggak ini akan menyaksikan peningkatan sebanyak 50 peratus dalam prestasi model AI mereka berhubung dengan penggunaan, objektif perniagaan dan penerimaan pengguna menjelang 2026. Selain itu, mesin berkuasa AI akan membentuk 20 peratus daripada tenaga kerja dunia dan menyumbang 40 peratus daripada keseluruhan produktiviti ekonomi menjelang 2028.

    Penemuan tinjauan Gartner mencadangkan bahawa banyak organisasi telah melaksanakan ratusan atau beribu-ribu model AI yang tidak dapat difahami atau ditafsirkan oleh eksekutif IT. Organisasi yang tidak mengurus risiko berkaitan AI dengan secukupnya lebih cenderung untuk menghadapi hasil dan pelanggaran yang tidak menguntungkan. Model tersebut mungkin tidak berfungsi seperti yang diharapkan, yang membawa kepada pelanggaran keselamatan dan privasi, dan bahaya kewangan, individu dan reputasi. Pelaksanaan AI yang tidak tepat juga boleh menyebabkan organisasi membuat keputusan perniagaan yang salah.

    Untuk berjaya melaksanakan AI TRiSM, pasukan rentas fungsi yang terdiri daripada kakitangan undang-undang, pematuhan, keselamatan, IT dan analitik data diperlukan. Menubuhkan pasukan khusus atau pasukan petugas dengan perwakilan yang betul dari setiap bidang perniagaan yang terlibat dalam projek AI juga akan membuahkan hasil yang optimum. Ia juga penting untuk memastikan setiap ahli pasukan memahami dengan jelas peranan dan tanggungjawab mereka, serta matlamat dan objektif inisiatif AI TRiSM.

    Kesan yang mengganggu

    Untuk menjadikan AI selamat, Gartner mengesyorkan beberapa langkah penting. Pertama, organisasi perlu memahami potensi risiko yang berkaitan dengan AI dan cara mengurangkannya. Usaha ini memerlukan penilaian risiko menyeluruh yang mempertimbangkan bukan sahaja teknologi itu sendiri tetapi juga kesannya terhadap manusia, proses dan alam sekitar.

    Kedua, organisasi perlu melabur dalam tadbir urus AI, yang merangkumi dasar, prosedur dan kawalan untuk mengurus risiko AI. Strategi ini termasuk memastikan sistem AI telus, boleh dijelaskan, bertanggungjawab dan mematuhi undang-undang dan peraturan yang berkaitan. Selain itu, pemantauan dan pengauditan berterusan model AI adalah penting untuk mengenal pasti dan mengurangkan sebarang potensi risiko yang mungkin timbul dari semasa ke semasa. Akhir sekali, organisasi perlu membangunkan budaya keselamatan AI, menggalakkan kesedaran, pendidikan dan latihan di kalangan pekerja dan pihak berkepentingan. Langkah-langkah ini termasuk latihan tentang penggunaan beretika AI, risiko yang berkaitan dengan AI, dan cara mengenal pasti dan melaporkan isu atau kebimbangan. 

    Usaha ini berkemungkinan akan menyebabkan lebih banyak syarikat membina jabatan AI Bertanggungjawab mereka. Rangka kerja tadbir urus yang baru muncul ini menangani halangan undang-undang dan etika yang berkaitan dengan AI dengan mendokumentasikan cara organisasi mendekatinya. Rangka kerja dan inisiatif berkaitannya ingin menghapuskan kekaburan untuk mengelakkan akibat negatif yang tidak diingini. Prinsip rangka kerja AI Bertanggungjawab menumpukan pada mereka bentuk, membangun dan menggunakan AI dengan cara yang memberi manfaat kepada pekerja, memberikan nilai kepada pelanggan dan memberi kesan positif kepada masyarakat.

    Implikasi AI TRiSM

    Implikasi AI TRiSM yang lebih luas mungkin termasuk: 

    • Memandangkan AI TRiSM menjadi semakin penting, syarikat perlu mengupah lebih ramai pekerja mahir yang berpengetahuan dalam bidang ini, seperti penganalisis keselamatan AI, pengurus risiko dan ahli etika.
    • Pertimbangan etika dan moral baharu, seperti keperluan untuk ketelusan, keadilan dan kebertanggungjawaban dalam menggunakan sistem AI.
    • Inovasi ditambah AI yang selamat, boleh dipercayai dan boleh dipercayai.
    • Peningkatan tekanan untuk peraturan kerajaan untuk melindungi individu dan organisasi daripada risiko yang berkaitan dengan sistem AI.
    • Fokus yang lebih besar untuk memastikan sistem AI tidak berat sebelah terhadap kumpulan atau individu tertentu.
    • Peluang baharu untuk mereka yang mempunyai kemahiran AI dan berpotensi menggantikan mereka yang tidak mempunyainya.
    • Peningkatan penggunaan tenaga dan kapasiti penyimpanan data untuk data latihan yang sentiasa dikemas kini.
    • Lebih banyak syarikat didenda kerana tidak mengguna pakai piawaian AI Bertanggungjawab global.

    Soalan yang perlu dipertimbangkan

    • Jika anda bekerja dalam AI, bagaimana syarikat anda melatih algoritmanya supaya beretika?
    • Apakah cabaran membina sistem AI Bertanggungjawab?

    Rujukan wawasan

    Pautan popular dan institusi berikut telah dirujuk untuk cerapan ini: