ភាពលំអៀងនៃបញ្ញាសិប្បនិម្មិត៖ ម៉ាស៊ីនមិនមានគោលបំណងដូចដែលយើងរំពឹងទុកនោះទេ។

ឥណទានរូបភាព៖
ឥណទានរូបភាព
iStock

ភាពលំអៀងនៃបញ្ញាសិប្បនិម្មិត៖ ម៉ាស៊ីនមិនមានគោលបំណងដូចដែលយើងរំពឹងទុកនោះទេ។

ភាពលំអៀងនៃបញ្ញាសិប្បនិម្មិត៖ ម៉ាស៊ីនមិនមានគោលបំណងដូចដែលយើងរំពឹងទុកនោះទេ។

អត្ថបទចំណងជើងរង
មនុស្សគ្រប់គ្នាយល់ស្របថា AI គួរតែមានភាពមិនលំអៀង ប៉ុន្តែការដកចេញនូវភាពលំអៀងកំពុងបង្ហាញពីបញ្ហា
    • អ្នកនិពន្ធ:
    • ឈ្មោះអ្នកនិពន្ធ
      ការទស្សន៍ទាយ Quantumrun
    • ខែកុម្ភៈ 8, 2022

    សង្ខេបការយល់ដឹង

    ខណៈពេលដែលបច្ចេកវិទ្យាដែលជំរុញដោយទិន្នន័យរក្សាការសន្យានៃការជំរុញឱ្យមានសង្គមយុត្តិធម៌មួយ ពួកវាតែងតែឆ្លុះបញ្ចាំងពីភាពលំអៀងដូចគ្នាដែលមនុស្សរស់នៅ នាំទៅរកភាពអយុត្តិធម៌ដែលអាចកើតមាន។ ជាឧទាហរណ៍ ភាពលំអៀងនៅក្នុងប្រព័ន្ធបញ្ញាសិប្បនិមិត្ត (AI) អាចធ្វើឱ្យខូចទ្រង់ទ្រាយដែលបង្កគ្រោះថ្នាក់ដោយអចេតនា។ ទោះជាយ៉ាងណាក៏ដោយ កិច្ចខិតខំប្រឹងប្រែងកំពុងដំណើរការដើម្បីធ្វើឱ្យប្រព័ន្ធ AI កាន់តែមានសមធម៌ ទោះបីជាវាចោទជាសំណួរស្មុគស្មាញអំពីតុល្យភាពរវាងការប្រើប្រាស់ និងយុត្តិធម៌ និងតម្រូវការសម្រាប់ការគ្រប់គ្រងប្រកបដោយការគិតគូរ និងភាពចម្រុះនៅក្នុងក្រុមបច្ចេកវិទ្យា។

    បរិបទទូទៅ AI លំអៀង

    ក្តីសង្ឃឹមគឺថាបច្ចេកវិទ្យាដែលជំរុញដោយទិន្នន័យនឹងជួយមនុស្សជាតិក្នុងការបង្កើតសង្គមមួយដែលយុត្តិធម៌គឺជាបទដ្ឋានសម្រាប់ទាំងអស់គ្នា។ ទោះយ៉ាងណាក៏ដោយ ការពិតបច្ចុប្បន្ន លាបពណ៌ផ្សេង។ ភាពលំអៀងជាច្រើនដែលមនុស្សមាន ដែលនាំទៅរកភាពអយុត្តិធម៌កាលពីអតីតកាល ឥឡូវនេះកំពុងត្រូវបានឆ្លុះបញ្ចាំងនៅក្នុងក្បួនដោះស្រាយដែលគ្រប់គ្រងពិភពឌីជីថលរបស់យើង។ ភាពលំអៀងទាំងនេះនៅក្នុងប្រព័ន្ធ AI ច្រើនតែកើតចេញពីការរើសអើងរបស់បុគ្គលដែលបង្កើតប្រព័ន្ធទាំងនេះ ហើយភាពលំអៀងទាំងនេះតែងតែជ្រាបចូលទៅក្នុងការងាររបស់ពួកគេ។

    ជាឧទាហរណ៍ សូមលើកយកគម្រោងមួយក្នុងឆ្នាំ 2012 ដែលគេស្គាល់ថាជា ImageNet ដែលស្វែងរកប្រភពនៃការដាក់ស្លាករូបភាពសម្រាប់ការបណ្តុះបណ្តាលប្រព័ន្ធរៀនម៉ាស៊ីន។ បណ្តាញសរសៃប្រសាទដ៏ធំមួយដែលត្រូវបានបណ្តុះបណ្តាលលើទិន្នន័យនេះជាបន្តបន្ទាប់អាចកំណត់អត្តសញ្ញាណវត្ថុជាមួយនឹងភាពត្រឹមត្រូវគួរឱ្យចាប់អារម្មណ៍។ ទោះជាយ៉ាងណាក៏ដោយ នៅពេលត្រួតពិនិត្យកាន់តែជិត អ្នកស្រាវជ្រាវបានរកឃើញភាពលំអៀងដែលលាក់នៅក្នុងទិន្នន័យ ImageNet ។ ក្នុងករណីពិសេសមួយ ក្បួនដោះស្រាយដែលបានបណ្តុះបណ្តាលលើទិន្នន័យនេះត្រូវបានលំអៀងទៅរកការសន្មត់ថាអ្នកសរសេរកម្មវិធីទាំងអស់គឺជាបុរសស្បែកស។

    ភាពលំអៀងនេះអាចបណ្តាលឱ្យស្ត្រីត្រូវបានគេមើលរំលងសម្រាប់តួនាទីបែបនេះ នៅពេលដែលដំណើរការជួលគឺស្វ័យប្រវត្តិ។ ភាពលំអៀងបានរកឃើញផ្លូវរបស់ពួកគេចូលទៅក្នុងសំណុំទិន្នន័យ ដោយសារតែបុគ្គលដែលបន្ថែមស្លាកទៅរូបភាពនៃ "ស្ត្រី" រួមបញ្ចូលស្លាកបន្ថែមដែលមានពាក្យប្រមាថ។ ឧទាហរណ៍នេះបង្ហាញពីរបៀបដែលភាពលំអៀង មិនថាចេតនា ឬអចេតនា អាចជ្រៀតចូលសូម្បីតែប្រព័ន្ធ AI ដ៏ទំនើបបំផុត ដែលអាចបន្តកើតមាននូវគំរូ និងវិសមភាពដែលបង្កគ្រោះថ្នាក់។

    ផលប៉ះពាល់រំខាន 

    កិច្ចខិតខំប្រឹងប្រែងដើម្បីដោះស្រាយភាពលំអៀងនៅក្នុងទិន្នន័យ និងក្បួនដោះស្រាយត្រូវបានផ្តួចផ្តើមដោយអ្នកស្រាវជ្រាវនៅទូទាំងស្ថាប័នសាធារណៈ និងឯកជនផ្សេងៗ។ ឧទាហរណ៍នៅក្នុងករណីនៃគម្រោង ImageNet ការប្រើប្រាស់ហ្វូងមនុស្សត្រូវបានគេប្រើប្រាស់ដើម្បីកំណត់អត្តសញ្ញាណ និងលុបបំបាត់លក្ខខណ្ឌនៃការដាក់ស្លាកដែលបញ្ចេញពន្លឺមើលងាយលើរូបភាពមួយចំនួន។ វិធានការទាំងនេះបានបង្ហាញថាវាពិតជាអាចទៅរួចក្នុងការកំណត់រចនាសម្ព័ន្ធប្រព័ន្ធ AI ឡើងវិញដើម្បីឱ្យមានសមធម៌ជាងមុន។

    ទោះជាយ៉ាងណាក៏ដោយ អ្នកជំនាញខ្លះអះអាងថា ការដកចេញនូវភាពលំអៀងអាចមានសក្តានុពលធ្វើឱ្យសំណុំទិន្នន័យមានប្រសិទ្ធភាពតិចជាង ជាពិសេសនៅពេលដែលការលំអៀងច្រើនកំពុងលេង។ សំណុំទិន្នន័យដែលដកចេញពីភាពលំអៀងមួយចំនួនអាចបញ្ចប់ដោយការខ្វះព័ត៌មានគ្រប់គ្រាន់សម្រាប់ការប្រើប្រាស់ប្រកបដោយប្រសិទ្ធភាព។ វាចោទជាសំណួរថា តើសំណុំទិន្នន័យរូបភាពចម្រុះពិតប្រាកដនឹងមើលទៅដូចអ្វី និងរបៀបដែលវាអាចប្រើបានដោយមិនប៉ះពាល់ដល់ឧបករណ៍ប្រើប្រាស់របស់វា។

    និន្នាការនេះគូសបញ្ជាក់ពីតម្រូវការសម្រាប់វិធីសាស្រ្តគិតគូរចំពោះការប្រើប្រាស់ AI និងបច្ចេកវិទ្យាដែលជំរុញដោយទិន្នន័យ។ សម្រាប់ក្រុមហ៊ុន នេះអាចមានន័យថាការវិនិយោគលើឧបករណ៍រកឃើញភាពលំអៀង និងការលើកកម្ពស់ភាពចម្រុះនៅក្នុងក្រុមបច្ចេកវិទ្យា។ សម្រាប់រដ្ឋាភិបាល វាអាចពាក់ព័ន្ធនឹងការអនុវត្តបទប្បញ្ញត្តិ ដើម្បីធានាការប្រើប្រាស់ AI ដោយយុត្តិធម៌។ 

    ផលប៉ះពាល់នៃភាពលំអៀង AI

    ផលប៉ះពាល់កាន់តែទូលំទូលាយនៃការលំអៀង AI អាចរួមមាន:

    • អង្គការកំពុងសកម្មក្នុងការធានានូវភាពយុត្តិធម៌ និងការមិនរើសអើង នៅពេលដែលពួកគេប្រើប្រាស់ AI ដើម្បីបង្កើនផលិតភាព និងការអនុវត្ត។ 
    • ការមានក្រមសីលធម៌ AI នៅក្នុងក្រុមអភិវឌ្ឍន៍ ដើម្បីស្វែងរក និងកាត់បន្ថយហានិភ័យប្រកបដោយក្រមសីលធម៌នៅដំណាក់កាលដំបូងក្នុងគម្រោង។ 
    • ការរចនាផលិតផល AI ជាមួយនឹងកត្តាចម្រុះដូចជា ភេទ ពូជសាសន៍ វណ្ណៈ និងវប្បធម៌យ៉ាងច្បាស់នៅក្នុងចិត្ត។
    • ការទទួលបានអ្នកតំណាងមកពីក្រុមចម្រុះដែលនឹងប្រើប្រាស់ផលិតផល AI របស់ក្រុមហ៊ុនមួយដើម្បីសាកល្បងវាមុនពេលវាត្រូវបានចេញផ្សាយ។
    • សេវាសាធារណៈផ្សេងៗត្រូវបានដាក់កម្រិតពីសមាជិកសាធារណៈមួយចំនួន។
    • សមាជិកសាធារណៈមួយចំនួនមិនអាចទទួលបាន ឬមានលក្ខណៈគ្រប់គ្រាន់សម្រាប់ឱកាសការងារមួយចំនួន។
    • ភ្នាក់ងារអនុវត្តច្បាប់ និងអ្នកជំនាញបានកំណត់គោលដៅដោយអយុត្តិធម៌ចំពោះសមាជិកមួយចំនួននៃសង្គមច្រើនជាងអ្នកដទៃ។ 

    សំណួរដែលត្រូវពិចារណា

    • តើ​អ្នក​មាន​សុទិដ្ឋិនិយម​ថា​ការ​សម្រេច​ចិត្ត​ដោយ​ស្វ័យ​ប្រវត្តិ​នឹង​មាន​ភាព​យុត្តិធម៌​នៅ​ពេល​អនាគត​ឬ?
    • ចុះការសម្រេចចិត្តរបស់ AI ធ្វើឱ្យអ្នកភ័យបំផុត?

    ឯកសារយោងការយល់ដឹង

    តំណភ្ជាប់ដ៏ពេញនិយម និងស្ថាប័នខាងក្រោមត្រូវបានយោងសម្រាប់ការយល់ដឹងនេះ៖