Технология қорқынышы: бітпейтін технология дүрбелеңі

Кредит суреті:
Сурет несиесі
iStock

Технология қорқынышы: бітпейтін технология дүрбелеңі

Технология қорқынышы: бітпейтін технология дүрбелеңі

Тақырып мәтіні
Жасанды интеллект ақырзаманның келесі жаңалығы ретінде бағаланады, бұл инновацияның ықтимал баяулауына әкеледі.
    • автор:
    • Автордың аты-жөні
      Кванттық болжау
    • Маусым 13, 2023

    Insight маңызды сәттері

    Технологияның адамзат прогресіне тарихи әсері айтарлықтай болды, әлеуетті тәуекелдер жиі әлеуметтік пікірталастарды тудырды. Жаңа технологияларды қолдану арқылы үрей тудырудың бұл үлгісі моральдық дүрбелең толқынына, зерттеулерге саяси астарлы қаржыландыруға және бұқаралық ақпарат құралдарында сенсациялық хабарларға әкеледі. Сонымен қатар, мектептер мен елдерде ChatGPT сияқты AI құралдарына тыйым салу әрекеттерінен көрініп тұрғандай, заңсыз пайдалануға, инновацияны тұншықтыруға және қоғамдағы алаңдаушылықтың артуына әкелетін нақты салдарлар пайда болуда.

    Технология қорқынышын тудыратын контекст

    Тарихтағы технологиялық бұзылулар адамзат прогресін айтарлықтай қалыптастырды, соңғысы жасанды интеллект (AI) болды. Атап айтқанда, генеративті AI біздің болашағымызға, негізінен оның әлеуетті тәуекелдері ескерілгенде қатты әсер етуі мүмкін. Белгілі американдық тарихшы Мелвин Кранцберг қоғам мен технологияның күрделі өзара әрекеттесуін сипаттайтын технологияның алты заңын ұсынды. Оның бірінші заңы технологияның жақсы да, жаман да емес екенін атап көрсетеді; оның әсерлері адамның шешім қабылдауымен және әлеуметтік контекстпен анықталады. 

    AI, әсіресе жасанды жалпы интеллект (AGI) жылдам жетістіктері жаңа траекторияларды құруда. Дегенмен, бұл оқиғалар пікірталас тудырады, кейбір сарапшылар AI-ның жетілу деңгейіне күмән келтіреді, ал басқалары әлеуетті әлеуметтік қауіптерді атап өтеді. Бұл тенденция жаңа технологиялармен бірге келетін әдеттегі үрей тудыратын тактикаға әкелді, бұл инновациялардың адамзат өркениетіне ықтимал әсерлері туралы дәлелденбеген үрей туғызды.

    Оксфорд университетінің эксперименталды психология бойынша түлегі Эми Орбен технология қорқынышының неліктен болатынын түсіндіру үшін Технологиялық мазасыздықтың Сисифи циклі деп аталатын төрт сатылы тұжырымдаманы жасады. Сизиф - грек мифологиясының кейіпкері, ол тасты мәңгі баурайға итеріп жіберді, тек ол қайтадан төмен қарай аунап, оны үздіксіз қайталауға мәжбүр етті. 

    Орбеннің айтуынша, технология дүрбелеңінің хронологиясы келесідей: Жаңа технология пайда болады, содан кейін саясаткерлер моральдық дүрбелең тудыруға кіріседі. Зерттеушілер осы саясаткерлерден қаражат алу үшін осы тақырыптарға назар аудара бастайды. Ақырында, зерттеушілер ұзақ мерзімді зерттеу нәтижелерін жариялағаннан кейін, бұқаралық ақпарат құралдары осы жиі сенсациялық нәтижелерді жариялайды. 

    Деструктивті әсер

    Қазірдің өзінде генеративті AI тексерілу және «алдын алу шаралары» алдында тұр. Мысалы, Нью-Йорк және Лос-Анджелес сияқты АҚШ-тағы мемлекеттік мектеп желілері өз үйлерінде ChatGPT пайдалануға тыйым салды. Дегенмен, MIT Technology Review журналындағы мақалада технологияларға тыйым салу студенттерді оларды заңсыз пайдалануға ынталандыру сияқты жағымсыз нәтижелерге әкелуі мүмкін екенін айтады. Сонымен қатар, мұндай тыйым салу оның артықшылықтары мен шектеулері туралы ашық диалогтарды дамытудың орнына AI-ны теріс пайдалануды ынталандыруы мүмкін.

    Елдер генеративті AI-ны қатты шектей бастады. Италия деректердің құпиялылығына байланысты мәселелерге байланысты 2023 жылдың наурыз айында ChatGPT-ке тыйым салған алғашқы батыс елі болды. OpenAI осы мәселелерді шешкеннен кейін үкімет сәуірде тыйымды алып тастады. Дегенмен, Италияның мысалы басқа еуропалық реттеушілер арасында қызығушылық тудырды, әсіресе Еуропалық Одақтың (ЕО) деректерді қорғаудың жалпы ережесі (GDPR) контекстінде. Қазірдің өзінде Ирландия мен Франция ChatGPT деректер саясатын одан әрі зерттеп жатыр.

    Сонымен қатар, AI миллиондаған жұмыс орындарын ығыстыратын, жалқау ойшылдардың мәдениетін қалыптастыратын және жалған ақпарат пен насихатты әлдеқайда жеңілдететін AI туралы әңгімелер қазірдің өзінде толықтай тоқтап тұрған БАҚ-та AI қорқынышын тудыруы мүмкін. Бұл алаңдаушылықтардың орынды болғанымен, кейбіреулер бұл технология әлі салыстырмалы түрде жаңа деп санайды және ешкім оның бұл үрдістерге қарсы тұру үшін дамымайтынына сенімді бола алмайды. Мысалы, Дүниежүзілік экономикалық форум 2025 жылға қарай машиналар шамамен 85 миллион жұмыс орнын алмастыруы мүмкін деп болжайды; дегенмен, олар адамдар мен машиналар арасындағы дамып келе жатқан ынтымақтастыққа жақсырақ сәйкес келетін 97 миллион жаңа позицияны жасай алады.

    Технологиядан қорқудың салдары

    Технологиялық қорқыныштың кеңірек салдары мыналарды қамтуы мүмкін: 

    • Технологиялық жетістіктерге деген сенімсіздік пен алаңдаушылықтың артуы, жаңа технологияларды қабылдауға құлықсыздық тудыруы мүмкін.
    • Кәсіпкерлердің, инвесторлардың және бизнестің қабылданатын тәуекелдерге байланысты жаңа технологиялық кәсіпорындарға ұмтылу ықтималдығы аз болатын ортаны құру арқылы экономикалық өсу мен инновацияларға кедергі жасау.
    • Саясаткерлер қоғамдық қорқынышты саяси пайда үшін пайдаланады, бұл инновацияны тұншықтыратын шектеуші саясаттарға, шектен тыс реттеуге немесе нақты технологияларға тыйым салуға әкеледі.
    • Әртүрлі демографиялық топтар арасындағы цифрлық алшақтықтың кеңеюі. Технологияны жақсы меңгерген жас ұрпақтың жаңа технологияларға қол жетімділігі мен түсінігі жоғары болуы мүмкін, ал аға буын артта қалуы мүмкін. 
    • Денсаулық сақтау, көлік және жаңартылатын энергия сияқты маңызды салаларда серпілістердің және жақсартулардың болмауына әкелетін технологиялық жетістіктердегі тоқырау. 
    • Автоматтандыруға байланысты жұмыс орнын жоғалту қорқынышы тиімдірек және экологиялық таза технологияларды қабылдауға кедергі келтіреді, дәстүрлі, аз тұрақты салаларға тәуелділікті ұзартады. 

    Қарастырылатын сұрақтар

    • Технологиялық компаниялар өздерінің жетістіктері мен инновациялары қорқыныш тудырмайтынын қалай қамтамасыз ете алады?