Тэхналагічны страх: Бясконцая тэхналагічная паніка

КРЭДЫТ ВЫЯВЫ:
Крэдыт малюнка
Istock

Тэхналагічны страх: Бясконцая тэхналагічная паніка

Тэхналагічны страх: Бясконцая тэхналагічная паніка

Тэкст падзагалоўка
Штучны інтэлект рэкламуецца як наступнае адкрыццё канца канца свету, што прывядзе да патэнцыйнага запаволення інавацый.
    • аўтар:
    • імя аўтара
      Quantumrun Foresight
    • Чэрвень 13, 2023

    Асноўныя моманты Insight

    Гістарычны ўплыў тэхналогій на прагрэс чалавецтва быў значным, і патэнцыйныя рызыкі часта выклікалі грамадскія дыскусіі. Гэтая мадэль нагнятання страху з дапамогай новых тэхналогій прыводзіць да хвалі маральнай панікі, палітычна матываванага фінансавання даследаванняў і сенсацыйнага асвятлення ў СМІ. Тым часам узнікаюць рэальныя наступствы, як відаць у спробах забараніць такія інструменты штучнага інтэлекту, як ChatGPT, у школах і краінах, што, магчыма, прывядзе да незаконнага выкарыстання, стрымлівання інавацый і росту грамадскай трывогі.

    Тэхналагічны кантэкст, які выклікае страх

    Тэхналагічныя збоі на працягу ўсёй гісторыі істотна паўплывалі на прагрэс чалавецтва, апошнім з якіх стаў штучны інтэлект (AI). У прыватнасці, генератыўны штучны інтэлект можа істотна паўплываць на нашу будучыню, у асноўным з улікам патэнцыйных рызык. Мелвін Кранцберг, вядомы амерыканскі гісторык, прадставіў шэсць законаў тэхналогіі, якія апісваюць складанае ўзаемадзеянне паміж грамадствам і тэхналогіяй. Яго першы закон падкрэслівае, што тэхналогія не з'яўляецца ні добрай, ні дрэннай; яго наступствы вызначаюцца прыняццем чалавекам рашэнняў і грамадскім кантэкстам. 

    Хуткі прагрэс ІІ, асабліва штучны агульны інтэлект (AGI), стварае новыя траекторыі. Аднак гэтыя падзеі выклікаюць дыскусіі: некаторыя эксперты ставяць пад сумнеў узровень развіцця штучнага інтэлекту, а іншыя падкрэсліваюць патэнцыйныя грамадскія пагрозы. Гэтая тэндэнцыя прывяла да звычайнай тактыкі нагнятання страху, якая прыходзіць з новымі тэхналогіямі, часта выклікаючы недаказаныя страхі адносна магчымага ўздзеяння гэтых новаўвядзенняў на чалавечую цывілізацыю.

    Выпускніца эксперыментальнай псіхалогіі Оксфардскага ўніверсітэта Эмі Орбен стварыла канцэпцыю з чатырох этапаў пад назвай «Сізіфаў цыкл тэхналагічнай трывогі», каб растлумачыць, чаму ўзнікае страх перад тэхналогіямі. Сізіф - персанаж з грэчаскай міфалогіі, якому было наканавана вечна штурхаць валун па схіле, каб той пакаціўся ўніз, прымушаючы яго паўтараць гэты працэс бясконца. 

    Па словах Орбена, графік тэхналагічнай панікі выглядае наступным чынам: з'яўляецца новая тэхналогія, затым палітыкі ўмешваюцца, каб распаліць маральную паніку. Даследчыкі пачынаюць засяроджвацца на гэтых тэмах, каб атрымаць сродкі ад гэтых палітыкаў. Нарэшце, пасля таго, як даследчыкі публікуюць вынікі сваіх доўгіх даследаванняў, СМІ асвятляюць гэтыя часта сенсацыйныя вынікі. 

    Разбуральнае ўздзеянне

    Генератыўны штучны інтэлект ужо знаходзіцца пад пільнай увагай і "прафілактычнымі мерамі". Напрыклад, дзяржаўныя школьныя сеткі ў ЗША, такія як Нью-Ёрк і Лос-Анджэлес, забаранілі выкарыстоўваць ChatGPT у сваіх памяшканнях. Тым не менш, артыкул у MIT Technology Review сцвярджае, што забарона тэхналогій можа прывесці да больш негатыўных вынікаў, такіх як заахвочванне студэнтаў выкарыстоўваць іх незаконна. Акрамя таго, такая забарона можа спрыяць няправільнаму выкарыстанню штучнага інтэлекту, а не спрыяць адкрытаму дыялогу аб яго перавагах і абмежаваннях.

    Краіны таксама пачынаюць моцна абмяжоўваць генератыўны ІІ. Італія стала першай заходняй краінай, якая забараніла ChatGPT у сакавіку 2023 года з-за праблем з прыватнасцю даных. Пасля таго як OpenAI вырашыў гэтыя праблемы, у красавіку ўрад адмяніў забарону. Аднак прыклад Італіі выклікаў цікавасць у іншых еўрапейскіх рэгулятараў, асабліва ў кантэксце Агульнага рэгламенту Еўрапейскага саюза (ЕС) аб абароне даных (GDPR). Ірландыя і Францыя ўжо працягваюць расследаванне палітыкі даных ChatGPT.

    Між тым, нагнятанне страху ў сферы штучнага інтэлекту можа ўзмацніцца ў сродках масавай інфармацыі, дзе наратыў пра тое, што штучны інтэлект выцясняе мільёны працоўных месцаў, стварае культуру лянівых мысляроў і значна палягчае дэзінфармацыю і прапаганду, ужо на поўным ходу. Нягледзячы на ​​тое, што гэтыя асцярогі маюць падставы, некаторыя сцвярджаюць, што тэхналогія ўсё яшчэ адносна новая, і ніхто не можа быць упэўнены, што яна не будзе развівацца, каб супрацьстаяць гэтым тэндэнцыям. Напрыклад, Сусветны эканамічны форум прагназуе, што да 2025 года машыны могуць замяніць каля 85 мільёнаў працоўных месцаў; аднак яны таксама могуць стварыць 97 мільёнаў новых пазіцый, якія лепш падыходзяць для супрацоўніцтва паміж людзьмі і машынамі, якое развіваецца.

    Наступствы тэхналагічнага нагнятання страху

    Больш шырокія наступствы тэхналагічнага страху могуць уключаць: 

    • Павелічэнне недаверу і трывогі ў адносінах да тэхналагічных дасягненняў, што патэнцыйна выклікае нежаданне прымаць новыя тэхналогіі.
    • Перашкаджае эканамічнаму росту і інавацыям, ствараючы асяроддзе, у якім прадпрымальнікі, інвестары і прадпрыемствы з меншай верагоднасцю імкнуцца да новых тэхналагічных прадпрыемстваў з-за ўяўных рызык.
    • Палітыкі выкарыстоўваюць грамадскія страхі для атрымання палітычнай выгады, што вядзе да абмежавальнай палітыкі, празмернага рэгулявання або забароны на пэўныя тэхналогіі, што можа стрымліваць інавацыі.
    • Пашырэнне лічбавага разрыву паміж рознымі дэмаграфічнымі групамі. Маладзейшыя пакаленні, якія звычайна больш дасведчаныя ў тэхналогіях, могуць мець большы доступ да новых тэхналогій і разуменне іх, у той час як старэйшыя пакаленні могуць застацца ззаду. 
    • Стагнацыя ў тэхналагічным прагрэсе, што прыводзіць да адсутнасці прарываў і паляпшэнняў у такіх важных галінах, як ахова здароўя, транспарт і аднаўляльныя крыніцы энергіі. 
    • Страх страціць працу з-за аўтаматызацыі, якая перашкаджае прыняццю больш эфектыўных і экалагічна чыстых тэхналогій, падаўжаючы залежнасць ад традыцыйных, менш устойлівых галін. 

    Пытанні для разгляду

    • Як тэхналагічныя кампаніі могуць гарантаваць, што іх прарывы ​​і інавацыі не выклікаюць страху?