Thiên vị trí tuệ nhân tạo: Máy móc không khách quan như chúng ta hy vọng

TÍN DỤNG HÌNH ẢNH:
Tín dụng hình ảnh
iStock

Thiên vị trí tuệ nhân tạo: Máy móc không khách quan như chúng ta hy vọng

Thiên vị trí tuệ nhân tạo: Máy móc không khách quan như chúng ta hy vọng

Văn bản tiêu đề phụ
Mọi người đều đồng ý rằng AI nên không thiên vị, nhưng xóa thành kiến ​​đang chứng tỏ có vấn đề
    • tác giả:
    • tên tác giả
      Tầm nhìn lượng tử
    • 8 Tháng hai, 2022

    Tóm tắt thông tin chi tiết

    Mặc dù các công nghệ dựa trên dữ liệu hứa hẹn sẽ thúc đẩy một xã hội công bằng nhưng chúng thường phản ánh những thành kiến ​​tương tự mà con người nuôi dưỡng, dẫn đến những bất công tiềm ẩn. Ví dụ, những thành kiến ​​trong hệ thống trí tuệ nhân tạo (AI) có thể vô tình làm trầm trọng thêm những định kiến ​​có hại. Tuy nhiên, những nỗ lực đang được tiến hành để làm cho hệ thống AI trở nên công bằng hơn, mặc dù điều này đặt ra những câu hỏi phức tạp về sự cân bằng giữa tiện ích và sự công bằng cũng như nhu cầu về quy định chu đáo và sự đa dạng trong các nhóm công nghệ.

    Bối cảnh chung thiên vị AI

    Hy vọng rằng các công nghệ được điều khiển bởi dữ liệu sẽ hỗ trợ nhân loại thiết lập một xã hội nơi sự công bằng là tiêu chuẩn cho tất cả mọi người. Tuy nhiên, thực tế hiện tại lại vẽ ra một bức tranh khác. Nhiều thành kiến ​​mà con người mắc phải, từng dẫn đến những bất công trong quá khứ, giờ đây đang được phản ánh trong các thuật toán chi phối thế giới kỹ thuật số của chúng ta. Những thành kiến ​​này trong hệ thống AI thường xuất phát từ thành kiến ​​của những cá nhân phát triển các hệ thống này và những thành kiến ​​này thường xuyên thâm nhập vào công việc của họ.

    Lấy ví dụ, một dự án vào năm 2012 có tên ImageNet, nhằm tìm cách huy động nguồn lực cộng đồng để gắn nhãn hình ảnh cho việc đào tạo các hệ thống máy học. Một mạng lưới thần kinh lớn được đào tạo dựa trên dữ liệu này sau đó có thể xác định các đối tượng với độ chính xác ấn tượng. Tuy nhiên, khi kiểm tra kỹ hơn, các nhà nghiên cứu đã phát hiện ra những sai lệch ẩn trong dữ liệu ImageNet. Trong một trường hợp cụ thể, một thuật toán được đào tạo dựa trên dữ liệu này đã thiên về giả định rằng tất cả các lập trình viên phần mềm đều là đàn ông da trắng.

    Sự thiên vị này có thể dẫn đến việc phụ nữ bị bỏ qua cho những vai trò như vậy khi quá trình tuyển dụng được tự động hóa. Những thành kiến ​​này đã xâm nhập vào các tập dữ liệu vì cá nhân thêm nhãn vào hình ảnh "phụ nữ" đã bao gồm một nhãn bổ sung bao gồm một thuật ngữ xúc phạm. Ví dụ này minh họa cách mà những thành kiến, dù cố ý hay vô ý, có thể xâm nhập vào ngay cả những hệ thống AI tinh vi nhất, có khả năng duy trì những định kiến ​​và bất bình đẳng có hại.

    Tác động gián đoạn 

    Những nỗ lực nhằm giải quyết sự thiên vị trong dữ liệu và thuật toán đã được các nhà nghiên cứu ở nhiều tổ chức công và tư nhân khác nhau khởi xướng. Ví dụ, trong trường hợp của dự án ImageNet, dịch vụ cộng đồng đã được sử dụng để xác định và loại bỏ các thuật ngữ gắn nhãn có tác dụng xúc phạm đến một số hình ảnh nhất định. Những biện pháp này chứng minh rằng thực sự có thể cấu hình lại các hệ thống AI để công bằng hơn.

    Tuy nhiên, một số chuyên gia lập luận rằng việc loại bỏ thành kiến ​​có thể khiến tập dữ liệu kém hiệu quả hơn, đặc biệt khi có nhiều thành kiến ​​đang diễn ra. Một tập dữ liệu bị loại bỏ một số thành kiến ​​nhất định có thể sẽ thiếu thông tin đầy đủ để sử dụng hiệu quả. Nó đặt ra câu hỏi về một tập dữ liệu hình ảnh thực sự đa dạng sẽ trông như thế nào và làm thế nào để sử dụng nó mà không ảnh hưởng đến tiện ích của nó.

    Xu hướng này nhấn mạnh sự cần thiết phải có một cách tiếp cận chu đáo trong việc sử dụng AI và các công nghệ dựa trên dữ liệu. Đối với các công ty, điều này có thể có nghĩa là đầu tư vào các công cụ phát hiện sai lệch và thúc đẩy sự đa dạng trong nhóm công nghệ. Đối với các chính phủ, nó có thể liên quan đến việc thực hiện các quy định để đảm bảo sử dụng hợp lý AI. 

    Ý nghĩa của sự thiên vị AI

    Ý nghĩa rộng hơn của sai lệch AI có thể bao gồm:

    • Các tổ chức chủ động trong việc đảm bảo sự công bằng và không phân biệt đối xử khi họ tận dụng AI để cải thiện năng suất và hiệu suất. 
    • Có chuyên gia đạo đức về AI trong các nhóm phát triển để phát hiện và giảm thiểu rủi ro đạo đức sớm trong một dự án. 
    • Thiết kế các sản phẩm AI với các yếu tố đa dạng như giới tính, chủng tộc, giai cấp và văn hóa rõ ràng.
    • Yêu cầu đại diện từ các nhóm khác nhau sẽ sử dụng sản phẩm AI của công ty để kiểm tra nó trước khi nó được phát hành.
    • Các dịch vụ công cộng khác nhau bị hạn chế đối với một số thành viên của công chúng.
    • Một số thành viên của công chúng không thể tiếp cận hoặc đủ điều kiện cho một số cơ hội việc làm.
    • Các cơ quan thực thi pháp luật và các chuyên gia nhắm mục tiêu không công bằng vào một số thành viên của xã hội nhiều hơn những người khác. 

    Các câu hỏi cần xem xét

    • Bạn có lạc quan rằng việc ra quyết định tự động sẽ công bằng trong tương lai không?
    • Điều gì về việc ra quyết định của AI khiến bạn lo lắng nhất?

    Tham khảo thông tin chi tiết

    Các liên kết phổ biến và liên kết thể chế sau đây đã được tham chiếu cho thông tin chi tiết này: