ხელოვნური ინტელექტის მიკერძოება: მანქანები არ არის ისეთი ობიექტური, როგორც ჩვენ გვინდოდა

სურათის კრედიტი:
გამოსახულება საკრედიტო
iStock

ხელოვნური ინტელექტის მიკერძოება: მანქანები არ არის ისეთი ობიექტური, როგორც ჩვენ გვინდოდა

ხელოვნური ინტელექტის მიკერძოება: მანქანები არ არის ისეთი ობიექტური, როგორც ჩვენ გვინდოდა

ქვესათაური ტექსტი
ყველა თანხმდება, რომ AI უნდა იყოს მიუკერძოებელი, მაგრამ მიკერძოების აღმოფხვრა პრობლემატურია
    • ავტორი:
    • ავტორის სახელი
      Quantumrun Foresight
    • თებერვალი 8, 2022

    Insight რეზიუმე

    მიუხედავად იმისა, რომ მონაცემთა ბაზაზე ორიენტირებული ტექნოლოგიები გვპირდებიან სამართლიანი საზოგადოების ხელშეწყობას, ისინი ხშირად ასახავს იმავე მიკერძოებას, რასაც ადამიანები ინახავენ, რაც იწვევს პოტენციურ უსამართლობას. მაგალითად, ხელოვნური ინტელექტის (AI) სისტემებში მიკერძოებამ შეიძლება უნებურად გააუარესოს მავნე სტერეოტიპები. თუმცა, მიმდინარეობს მცდელობები, რომ ხელოვნური ინტელექტის სისტემები უფრო სამართლიანი გახდეს, თუმცა ეს აჩენს რთულ კითხვებს სარგებლობასა და სამართლიანობას შორის ბალანსის შესახებ და ტექნიკურ გუნდებში გააზრებული რეგულირებისა და მრავალფეროვნების აუცილებლობაზე.

    AI მიკერძოებული ზოგადი კონტექსტი

    იმედია, რომ მონაცემებით მართული ტექნოლოგიები დაეხმარება კაცობრიობას ისეთი საზოგადოების ჩამოყალიბებაში, სადაც სამართლიანობა ნორმაა ყველასთვის. თუმცა დღევანდელი რეალობა სულ სხვა სურათს ასახავს. ბევრი მიკერძოება, რაც ადამიანებს აქვთ, რამაც წარსულში უსამართლობა გამოიწვია, ახლა აისახება ალგორითმებში, რომლებიც მართავენ ჩვენს ციფრულ სამყაროს. ხელოვნური ინტელექტის სისტემებში ეს მიკერძოება ხშირად გამომდინარეობს იმ პირთა ცრურწმენებიდან, რომლებიც ამ სისტემებს ავითარებენ და ეს მიკერძოებები ხშირად ხვდება მათ მუშაობაში.

    ავიღოთ, მაგალითად, 2012 წლის პროექტი, რომელიც ცნობილია როგორც ImageNet, რომელიც ცდილობდა სურათების ეტიკეტირებას მანქანური სწავლების სისტემების ტრენინგისთვის. ამ მონაცემებზე გაწვრთნილმა დიდმა ნერვულმა ქსელმა შემდგომში შეძლო ობიექტების იდენტიფიცირება შთამბეჭდავი სიზუსტით. თუმცა, უფრო მჭიდრო შემოწმების შემდეგ, მკვლევარებმა აღმოაჩინეს მიკერძოება, რომელიც იმალება ImageNet-ის მონაცემებში. ერთ კონკრეტულ შემთხვევაში, ამ მონაცემებზე მომზადებული ალგორითმი მიკერძოებული იყო იმ ვარაუდის მიმართ, რომ პროგრამული უზრუნველყოფის ყველა პროგრამისტი თეთრი მამაკაცია.

    ამ მიკერძოებულმა პოტენციურად შეიძლება გამოიწვიოს ქალების უგულებელყოფა ასეთი როლებისთვის, როდესაც დაქირავების პროცესი ავტომატიზებულია. მიკერძოებამ იპოვა გზა მონაცემთა ნაკრებებში, რადგან ინდივიდი, რომელიც ამატებდა ეტიკეტებს „ქალის“ სურათებზე, მოიცავდა დამატებით იარლიყს, რომელიც შედგებოდა დამამცირებელი ტერმინისგან. ეს მაგალითი გვიჩვენებს, თუ როგორ შეიძლება მიკერძოებამ, განზრახ თუ უნებლიედ, შეაღწიოს ყველაზე დახვეწილ ხელოვნური ინტელექტის სისტემებშიც კი, რაც პოტენციურად გააგრძელებს მავნე სტერეოტიპებს და უთანასწორობას.

    დამრღვევი გავლენა 

    მონაცემებისა და ალგორითმების მიკერძოების აღმოსაფხვრელად მცდელობები წამოიწყეს მკვლევარებმა სხვადასხვა საჯარო და კერძო ორგანიზაციებში. მაგალითად, ImageNet პროექტის შემთხვევაში, crowdsourcing იყო გამოყენებული ეტიკეტირების ტერმინების იდენტიფიცირებისთვის და აღმოსაფხვრელად, რომლებიც დამამცირებელ შუქს აქცევს გარკვეულ სურათებს. ამ ზომებმა აჩვენა, რომ მართლაც შესაძლებელია ხელოვნური ინტელექტის სისტემების ხელახალი კონფიგურაცია, რათა იყოს უფრო სამართლიანი.

    თუმცა, ზოგიერთი ექსპერტი ამტკიცებს, რომ მიკერძოების აღმოფხვრამ შესაძლოა მონაცემთა ნაკრები ნაკლებად ეფექტური გახადოს, განსაკუთრებით მაშინ, როდესაც საქმეში მრავალი მიკერძოებაა. გარკვეული მიკერძოებისგან გათავისუფლებული მონაცემთა ნაკრები შეიძლება დასრულდეს საკმარისი ინფორმაციის ნაკლებობით ეფექტური გამოყენებისთვის. ის აჩენს კითხვას, როგორი იქნება მართლაც მრავალფეროვანი გამოსახულების მონაცემთა ნაკრები და როგორ შეიძლება მისი გამოყენება სარგებლიანობის დარღვევის გარეშე.

    ეს ტენდენცია ხაზს უსვამს გააზრებული მიდგომის აუცილებლობას ხელოვნური ინტელექტისა და მონაცემების საფუძველზე ტექნოლოგიების გამოყენებასთან დაკავშირებით. კომპანიებისთვის ეს შეიძლება ნიშნავდეს ინვესტიციას მიკერძოების გამოვლენის ინსტრუმენტებში და მრავალფეროვნების ხელშეწყობას ტექნიკურ გუნდებში. მთავრობებისთვის ეს შეიძლება მოიცავდეს რეგულაციების განხორციელებას ხელოვნური ინტელექტის სამართლიანი გამოყენების უზრუნველსაყოფად. 

    AI მიკერძოების შედეგები

    AI მიკერძოების უფრო ფართო შედეგები შეიძლება მოიცავდეს:

    • ორგანიზაციები პროაქტიულები არიან სამართლიანობისა და არადისკრიმინაციის უზრუნველსაყოფად, რადგან ისინი იყენებენ AI-ს პროდუქტიულობისა და მუშაობის გასაუმჯობესებლად. 
    • ხელოვნური ინტელექტის ეთიკოსის ყოლა განვითარების გუნდებში, რათა აღმოაჩინონ და შეარბილონ ეთიკური რისკები პროექტის დასაწყისში. 
    • ხელოვნური ინტელექტის პროდუქტების დიზაინი მრავალფეროვნების ფაქტორებით, როგორიცაა სქესი, რასა, კლასი და კულტურა აშკარად მხედველობაში.
    • სხვადასხვა ჯგუფების წარმომადგენლების მიღება, რომლებიც გამოიყენებენ კომპანიის ხელოვნური ინტელექტის პროდუქტს მის გამოშვებამდე მის შესამოწმებლად.
    • სხვადასხვა საჯარო სერვისები შეზღუდულია საზოგადოების გარკვეული წევრებისთვის.
    • საზოგადოების ზოგიერთ წევრს არ შეუძლია გარკვეული სამუშაო შესაძლებლობების წვდომა ან კვალიფიკაცია.
    • სამართალდამცავი ორგანოები და პროფესიონალები უსამართლოდ უმიზნებენ საზოგადოების გარკვეულ წევრებს, ვიდრე სხვებს. 

    კითხვები გასათვალისწინებელია

    • ოპტიმისტურად ხართ განწყობილი, რომ ავტომატური გადაწყვეტილების მიღება მომავალში სამართლიანი იქნება?
    • რაც შეეხება AI გადაწყვეტილების მიღებას ყველაზე მეტად ნერვიულობთ?

    Insight ცნობები

    შემდეგი პოპულარული და ინსტიტუციური ბმულები იყო მითითებული ამ ინფორმაციისათვის: