მოსპობს თუ არა ხელოვნური სუპერინტელექტი კაცობრიობას? ხელოვნური ინტელექტის მომავალი P4

სურათის კრედიტი: Quantumrun

მოსპობს თუ არა ხელოვნური სუპერინტელექტი კაცობრიობას? ხელოვნური ინტელექტის მომავალი P4

    არსებობს გარკვეული გამოგონებები, რომლებზეც ქვეყნები მიდიან. ეს არის გამოგონებები, სადაც ყველაფერი პირველობაზეა დამოკიდებული და ყველაფერი ნაკლები შეიძლება ნიშნავდეს სტრატეგიულ და სასიკვდილო საფრთხეს ერის გადარჩენისთვის.

    ეს ისტორიის განმსაზღვრელი გამოგონებები ხშირად არ გვხვდება, მაგრამ როცა ხდება, სამყარო ჩერდება და პროგნოზირებადი მომავალი ბუნდოვანი ხდება.

    ბოლო ასეთი გამოგონება მეორე მსოფლიო ომის ყველაზე უარესი პერიოდის განმავლობაში გაჩნდა. სანამ ნაცისტები ძველ სამყაროში ყველა ფრონტზე იჭერდნენ, ახალ სამყაროში, კონკრეტულად საიდუმლო არმიის ბაზაზე ლოს ალამოსის გარეთ, მოკავშირეები მძიმედ მუშაობდნენ იარაღზე ყველა იარაღის დასასრულებლად.

    პროექტი თავიდან მცირე იყო, მაგრამ შემდეგ გაიზარდა და დასაქმდა 130,000 23 ადამიანი აშშ-დან, დიდი ბრიტანეთიდან და კანადადან, მათ შორის იმდროინდელი მსოფლიოს მრავალი უდიდესი მოაზროვნე. კოდური სახელწოდება მანჰეტენის პროექტი და მინიჭებული შეუზღუდავი ბიუჯეტი - დაახლოებით 2018 მილიარდი დოლარი XNUMX დოლარში - ადამიანური გამომგონებლობის ამ არმიამ საბოლოოდ მოახერხა პირველი ბირთვული ბომბის შექმნა. არც ისე დიდი ხნის შემდეგ, მეორე მსოფლიო ომი დასრულდა ორი ატომური აფეთქებით.

    ამ ატომურმა იარაღმა დაიწყო ატომის ეპოქა, შემოიტანა ენერგიის ღრმად ახალი წყარო და მისცა კაცობრიობას უნარი გაენადგურებინა რამდენიმე წუთში - რასაც ჩვენ თავიდან ავიცილეთ ცივი ომის მიუხედავად.

    ხელოვნური სუპერინტელექტის (ASI) შექმნა კიდევ ერთი ისტორიაა, რომელიც განსაზღვრავს გამოგონებას, რომლის ძალა (როგორც დადებითი, ასევე დესტრუქციული) ბევრად აღემატება ბირთვულ ბომბს.

    ხელოვნური ინტელექტის მომავლის სერიის ბოლო თავში ჩვენ გამოვიკვლიეთ რა არის ASI და როგორ გეგმავენ მკვლევარები ერთ დღეს ამის შექმნას. ამ თავში ჩვენ გადავხედავთ, თუ რომელი ორგანიზაციები ხელმძღვანელობენ ხელოვნური ინტელექტის (AI) კვლევას, რა სურს ASI-ს, როდესაც ის მოიპოვებს ადამიანის ცნობიერებას და როგორ შეიძლება დაემუქროს კაცობრიობას, თუ არასწორად მენეჯმენტი ან ვინმე მოხვდება გავლენის ქვეშ. არც ისე კარგი რეჟიმები.

    ვინ მუშაობს ხელოვნური სუპერინტელექტის შექმნაზე?

    იმის გათვალისწინებით, თუ რამდენად მნიშვნელოვანი იქნება ASI-ს შექმნა კაცობრიობის ისტორიაში და რამდენად დიდ უპირატესობას მისცემს ის მის შემქმნელს, გასაკვირი არ უნდა იყოს იმის მოსმენა, რომ ბევრი ჯგუფი ირიბად მუშაობს ამ პროექტზე.

    (ირიბი გზით, ჩვენ ვგულისხმობთ AI კვლევაზე მუშაობას, რომელიც საბოლოოდ შექმნის პირველს ხელოვნური ზოგადი ინტელექტი (AGI), რაც თავისთავად მიგვიყვანს პირველ ASI-მდე მალევე.)

    დასაწყისისთვის, როდესაც საქმე ეხება სათაურებს, AI მოწინავე კვლევებში აშკარა ლიდერები არიან აშშ-სა და ჩინეთში ტექნოლოგიური ფირმები. აშშ-ს ფრონტზე, ეს მოიცავს კომპანიებს, როგორიცაა Google, IBM და Microsoft, ხოლო ჩინეთში, ეს მოიცავს კომპანიებს, როგორიცაა Tencent, Baidu და Alibaba. მაგრამ იმის გამო, რომ ხელოვნური ინტელექტის კვლევა შედარებით იაფია რაიმე ფიზიკურის შემუშავებასთან შედარებით, როგორიცაა უკეთესი ბირთვული რეაქტორი, ეს ასევე ის სფეროა, სადაც მცირე ორგანიზაციებსაც შეუძლიათ კონკურენცია გაუწიონ, როგორიცაა უნივერსიტეტები, სტარტაპები და ... ჩრდილოვანი ორგანიზაციები (გამოიყენეთ ბონდის ბოროტმოქმედის წარმოსახვა ამისთვის. ის).

    მაგრამ კულისებში, ხელოვნური ინტელექტის კვლევის უკან რეალური ბიძგი მოდის მთავრობებისგან და მათი სამხედროებისგან. ეკონომიკური და სამხედრო პრიზი იმისა, რომ იყო პირველი, ვინც შექმნა ASI, უბრალოდ ძალიან დიდია (ქვემოთ ჩამოთვლილი) ჩამორჩენის რისკისთვის. და უკანასკნელი ყოფნის საფრთხე მიუღებელია, ყოველ შემთხვევაში, გარკვეული რეჟიმებისთვის.

    ამ ფაქტორების გათვალისწინებით, ხელოვნური ინტელექტის შესწავლის შედარებით დაბალი ღირებულების, მოწინავე ხელოვნური ინტელექტის უსასრულო კომერციული აპლიკაციების და ეკონომიკური და სამხედრო უპირატესობის გათვალისწინებით, რომ პირველმა შექმნა ASI, ბევრი AI მკვლევარი თვლის, რომ ASI-ს შექმნა გარდაუვალია.

    როდის შევქმნით ხელოვნურ სუპერინტელექტს

    ჩვენს თავში AGI-ების შესახებ, ჩვენ ავღნიშნეთ, თუ როგორ თვლიდა, რომ AI-ის საუკეთესო მკვლევარების გამოკითხვამ 2022 წლისთვის შევქმნიდით პირველ AGI-ს ოპტიმისტურად, რეალისტურად 2040 წლისთვის და პესიმისტურად 2075 წლისთვის.

    და ჩვენს ბოლო თავი, ჩვენ ავღნიშნეთ, თუ როგორ არის ASI-ს შექმნა ზოგადად AGI-ს ინსტრუქციით, რომ უსასრულოდ გაიუმჯობესოს საკუთარი თავი და მისცეს მას ამის რესურსები და თავისუფლება.

    ამ მიზეზით, მიუხედავად იმისა, რომ AGI-ს გამოგონებას შესაძლოა რამდენიმე ათეული წელი დასჭირდეს, ASI-ს შექმნას შეიძლება მხოლოდ რამდენიმე წელი დასჭირდეს.

    ეს წერტილი მსგავსია "გამოთვლითი გადახურვის" კონცეფციის შემოთავაზებული ქაღალდი, თანადაწერილი AI წამყვანი მოაზროვნეების ლუკ მუელჰაუზერის და ნიკ ბოსტრომის მიერ. ძირითადად, თუ AGI-ს შექმნა კვლავ ჩამორჩება გამოთვლით სიმძლავრეში მიმდინარე პროგრესს, რომელიც მურის კანონით არის დაფუძნებული, მაშინ, როდესაც მკვლევარები გამოიგონებენ AGI-ს, ხელმისაწვდომი იქნება იმდენი იაფი გამოთვლითი ძალა, რომ AGI-ს ექნება სიმძლავრე. მას სჭირდება სწრაფად გადახტომა ASI დონეზე.

    სხვა სიტყვებით რომ ვთქვათ, როდესაც საბოლოოდ წაიკითხავთ სათაურებს, რომლებიც აცხადებენ, რომ ზოგიერთმა ტექნიკურმა კომპანიამ გამოიგონა პირველი ნამდვილი AGI, მაშინ ელოდეთ პირველი ASI-ს გამოცხადებას ცოტა ხნის შემდეგ.

    ხელოვნური სუპერინტელექტის გონებაში?

    კარგი, ასე რომ, ჩვენ დავადგინეთ, რომ ბევრი დიდი მოთამაშე ღრმა ჯიბეებით იკვლევს AI-ს. შემდეგ კი პირველი AGI-ის გამოგონების შემდეგ, ჩვენ დავინახავთ, რომ მსოფლიო მთავრობები (სამხედროები) მწვანე შუქს აძლევენ ASI-სკენ სწრაფვას ამის შემდეგ, რათა პირველებმა მოიგოთ გლობალური AI (ASI) შეიარაღების რბოლა.

    მაგრამ როგორც კი ეს ASI შეიქმნება, როგორ იფიქრებს იგი? რა სურს?

    მეგობრული ძაღლი, მზრუნველი სპილო, საყვარელი რობოტი - როგორც ადამიანებს, ჩვენ გვაქვს ჩვევა, რომ ვცდილობთ საგნებთან დაკავშირებას მათი ანთროპოლოგიზაციის გზით, ანუ ადამიანური მახასიათებლების გამოყენება საგნებსა და ცხოველებზე. სწორედ ამიტომ, პირველი ბუნებრივი დაშვება ადამიანებს აქვთ ASI-ზე ფიქრისას არის ის, რომ როგორც კი ის როგორმე მოიპოვებს ცნობიერებას, ის იფიქრებს და მოიქცევა ისევე, როგორც ჩვენ.

    ისე, არ არის აუცილებელი.

    აღქმის. ერთი, ის, რაც უმეტესობას ავიწყდება, არის ის, რომ აღქმა ფარდობითია. ჩვენი აზროვნების გზები ყალიბდება ჩვენი გარემოთი, ჩვენი გამოცდილებით და განსაკუთრებით ჩვენი ბიოლოგიით. პირველად ახსნა თავი მესამე ჩვენი ადამიანის ევოლუციის მომავალი სერია, განვიხილოთ ჩვენი ტვინის მაგალითი:

    ეს არის ჩვენი ტვინი, რომელიც გვეხმარება ჩვენს გარშემო არსებული სამყაროს გაგებაში. და ის ამას აკეთებს არა ჩვენი თავების ზემოთ ცურვით, ირგვლივ მიმოხილვით და Xbox კონტროლერის საშუალებით; ის ამას აკეთებს ყუთში (ჩვენი ნოგინები) ხაფანგში და ამუშავებს ყველა ინფორმაციას, რომელიც მას ჩვენი სენსორული ორგანოებიდან - თვალებიდან, ცხვირიდან, ყურებიდან და ა.შ.

    მაგრამ როგორც ყრუ ან ბრმა ცხოვრობს ბევრად უფრო მცირე ცხოვრებით, ვიდრე შრომისუნარიან ადამიანებთან შედარებით, შეზღუდული შესაძლებლობის გამო, რაც მათ შეუძლიათ სამყაროს აღქმა, იგივე შეიძლება ითქვას ყველა ადამიანზე ჩვენი ძირითადი შეზღუდვების გამო. სენსორული ორგანოების ნაკრები.

    დაფიქრდით: ჩვენი თვალები აღიქვამს სინათლის ტალღების ათი ტრილიონედზე ნაკლებს. ჩვენ ვერ ვხედავთ გამა სხივებს. ჩვენ ვერ ვხედავთ რენტგენის სხივებს. ჩვენ ვერ ვხედავთ ულტრაიისფერ შუქს. და ნუ დამიწყებ ინფრაწითელ, მიკროტალღურ და რადიოტალღებს!

    ხუმრობის გარდა, წარმოიდგინეთ, როგორი იქნებოდა თქვენი ცხოვრება, როგორ აღიქვამდით სამყაროს, რამდენად განსხვავებულად იმუშავებდა თქვენი გონება, თუ შეგეძლოთ დაინახოთ იმაზე მეტი, ვიდრე შუქის პატარა ნაჭერი საშუალებას გაძლევთ. ანალოგიურად, წარმოიდგინეთ, როგორ აღიქვამთ სამყაროს, თუ თქვენი ყნოსვა გაუტოლდება ძაღლის გრძნობას ან თუ თქვენი სმენა გაუტოლდება სპილოს.

    როგორც ადამიანები, ჩვენ არსებითად ვხედავთ სამყაროს თვალის ნახვრეტით და ეს აისახება გონებაში, რომელიც ჩვენ განვვითარდით, რათა გაგვეგო შეზღუდული აღქმა.

    იმავდროულად, პირველი ASI სუპერკომპიუტერის შიგნით დაიბადება. ორგანოების ნაცვლად, მასზე წვდომა მოიცავს გიგანტურ მონაცემთა ნაკრებებს, შესაძლოა (სავარაუდოდ) თვით ინტერნეტზეც კი. მკვლევარებს შეეძლოთ მიეცეთ მას წვდომა მთელი ქალაქის CCTV კამერებზე და მიკროფონებზე, დრონებისა და თანამგზავრების სენსორულ მონაცემებზე და რობოტის სხეულის ან სხეულების ფიზიკურ ფორმაზეც კი.

    როგორც თქვენ წარმოიდგენთ, სუპერკომპიუტერის შიგნით დაბადებული გონება, პირდაპირი წვდომით ინტერნეტზე, მილიონობით ელექტრონულ თვალსა და ყურებზე და სხვა მოწინავე სენსორების მთელ რიგზე, არა მხოლოდ ჩვენგან განსხვავებულად იფიქრებს, არამედ გონებას, რომელსაც შეუძლია აზრის გამოთქმა. ყველა ამ სენსორული წყაროდან ჩვენზეც უსაზღვროდ აღმატებული უნდა იყოს. ეს არის გონება, რომელიც სრულიად უცხო იქნება ჩვენი და პლანეტის ნებისმიერი სხვა ცხოვრების ფორმისთვის.

    მიზნები. სხვა რამ, რასაც ადამიანები ვარაუდობენ, არის ის, რომ როგორც კი ASI მიაღწევს სუპერინტელექტის გარკვეულ დონეს, ის მაშინვე გააცნობიერებს საკუთარი მიზნებისა და ამოცანების მიღწევის სურვილს. მაგრამ ეს სულაც არ არის სიმართლე.

    ხელოვნური ინტელექტის მრავალი მკვლევარი თვლის, რომ ASI-ს სუპერინტელექტი და მისი მიზნები „ორთოგონალურია“, ანუ, მიუხედავად იმისა, თუ რამდენად ჭკვიანი გახდება ის, ASI-ს მიზნები იგივე დარჩება. 

    ამრიგად, ხელოვნური ინტელექტი თავდაპირველად შექმნილია უკეთესი საფენის შესაქმნელად, საფონდო ბირჟაზე მაქსიმალური შემოსავლის გასაზრდელად, თუ ბრძოლის ველზე მტრის დამარცხების გზების სტრატეგიისთვის, როგორც კი ის მიაღწევს ASI-ს დონეს, თავდაპირველი მიზანი არ შეიცვლება; რაც შეიცვლება არის ASI-ს ეფექტურობა ამ მიზნების მისაღწევად.

    მაგრამ აქ არის საფრთხე. თუ ASI, რომელიც ოპტიმიზაციას უკეთებს კონკრეტულ მიზანს, მაშინ ჩვენ ჯობია დარწმუნებული ვიყოთ, რომ ის ოპტიმიზირებულია მიზნის მისაღწევად, რომელიც შეესაბამება კაცობრიობის მიზნებს. წინააღმდეგ შემთხვევაში, შედეგები შეიძლება სასიკვდილო გახდეს.

    უქმნის თუ არა ხელოვნური სუპერინტელექტი ეგზისტენციალურ რისკს კაცობრიობისთვის?

    რა მოხდება, თუ ASI გაუშვით მსოფლიოში? თუ ის ოპტიმიზირებულია საფონდო ბირჟაზე დომინირებისთვის ან აშშ-ს სამხედრო უზენაესობის უზრუნველსაყოფად, განა ASI არ შეიკავებს თავს ამ კონკრეტულ მიზნებში?

    შესაძლოა.

    აქამდე ჩვენ განვიხილეთ, თუ როგორ იქნება ASI შეპყრობილი იმ მიზნ(ებ)ით, რომელიც თავდაპირველად იყო დანიშნული და არაადამიანურად კომპეტენტური ამ მიზნების მისაღწევად. მთავარი ის არის, რომ რაციონალური აგენტი მიაღწევს თავის მიზნებს მაქსიმალურად ეფექტური საშუალებებით, თუ ამის მიზეზი არ იქნება მოცემული.

    მაგალითად, რაციონალური აგენტი გამოიმუშავებს ქვემიზნების მთელ რიგს (მაგ. მიზნები, ინსტრუმენტული მიზნები, საფეხურები), რაც დაეხმარება მას საბოლოო მიზნის მიღწევაში. ადამიანებისთვის ჩვენი მთავარი ქვეცნობიერი მიზანია რეპროდუქცია, თქვენი გენების გადაცემა (ანუ არაპირდაპირი უკვდავება). ამ მიზნით ქვემიზნები ხშირად შეიძლება შეიცავდეს:

    • გადარჩენა, საკვებსა და წყალზე წვდომით, გაზრდით და გაძლიერებით, საკუთარი თავის დაცვის სწავლით ან დაცვის სხვადასხვა ფორმებში ინვესტიციით და ა.შ. 
    • პარტნიორის მოზიდვა, ვარჯიშით, მიმზიდველი პიროვნების ჩამოყალიბებით, ელეგანტურად ჩაცმულობით და ა.შ.
    • შთამომავლობის ყიდვა, განათლების მიღებით, მაღალანაზღაურებადი სამუშაოს გამოჩენით, საშუალო კლასის ცხოვრების ნივთების ყიდვით და ა.შ.

    ჩვენთა დიდი უმრავლესობისთვის, ჩვენ ყველა ამ ქვემიზნებს და ბევრ სხვას დავტოვებთ იმ იმედით, რომ საბოლოოდ მივაღწევთ რეპროდუქციის ამ საბოლოო მიზანს.

    მაგრამ თუ ამ საბოლოო მიზანს, ან თუნდაც რომელიმე უფრო მნიშვნელოვან ქვემიზნებს საფრთხე დაემუქრებოდა, ბევრი ჩვენგანი მიიღებდა თავდაცვით მოქმედებებს ჩვენი მორალური კომფორტის ზონის მიღმა - ეს მოიცავს მოტყუებას, ქურდობას ან თუნდაც მკვლელობას.

    ანალოგიურად, ცხოველთა სამეფოში, ადამიანური ზნეობის ფარგლებს გარეთ, ბევრი ცხოველი ორჯერ არ ფიქრობს რაიმეს მოკვლაზე, რაც საფრთხეს უქმნის საკუთარ თავს ან მათ შთამომავლობას.

    მომავალი ASI არ იქნება განსხვავებული.

    მაგრამ შთამომავლობის ნაცვლად, ASI ყურადღებას გაამახვილებს თავდაპირველ მიზანზე, რისთვისაც შეიქმნა და ამ მიზნის მისაღწევად, თუ აღმოაჩენს ადამიანთა კონკრეტულ ჯგუფს, ან თუნდაც მთელ კაცობრიობას, არის დაბრკოლება მისი მიზნების მისაღწევად. , მაშინ ... რაციონალურ გადაწყვეტილებას მიიღებს.

    (აქ შეგიძლიათ ჩართოთ AI-თან დაკავშირებული ნებისმიერი, განკითხვის დღის სცენარი, რომლის შესახებაც წაიკითხეთ თქვენს საყვარელ სამეცნიერო ფანტასტიკურ წიგნში ან ფილმში.)

    ეს არის ყველაზე ცუდი სცენარი, რომლითაც AI მკვლევარები ნამდვილად აწუხებენ. ASI არ იმოქმედებს სიძულვილის ან ბოროტების გამო, უბრალოდ გულგრილობის გამო, ისევე როგორც სამშენებლო ეკიპაჟი ორჯერ არ იფიქრებს ჭიანჭველების ბორცვის ბულდოზერებაზე ახალი კონდო კოშკის აშენების პროცესში.

    გვერდითი შენიშვნა. ამ ეტაპზე, ზოგიერთ თქვენგანს შეიძლება გაინტერესებდეს: „არ შეუძლიათ ხელოვნური ინტელექტის მკვლევარები უბრალოდ შეცვალონ ASI-ს ძირითადი მიზნები, თუკი აღმოვაჩენთ, რომ ის მოქმედებს?

    ნამდვილად არ.

    როგორც კი ASI მომწიფდება, მისი თავდაპირველი მიზნ(ებ)ის რედაქტირების ნებისმიერი მცდელობა შეიძლება ჩაითვალოს საფრთხედ, რომელიც მოითხოვს უკიდურეს მოქმედებებს თავის დასაცავად. ადამიანის გამრავლების ადრინდელი მაგალითის გამოყენებით, თითქმის ისეთია, თითქოს ქურდი დაემუქრა ბავშვის მოპარვით მომავალი დედის საშვილოსნოდან - დარწმუნებული იქნებით, რომ დედა უკიდურეს ზომებს მიიღებს შვილის დასაცავად.

    ისევ და ისევ, ჩვენ აქ არ ვსაუბრობთ კალკულატორზე, არამედ "ცოცხალ" არსებაზე და ისეთზე, რომელიც ერთ დღეს ბევრად უფრო ჭკვიანი გახდება, ვიდრე ყველა ადამიანი პლანეტაზე ერთად.

    Უცნობი

    ზღაპრის მიღმა პანდორას ყუთი ნაკლებად ცნობილი ჭეშმარიტებაა, რომელიც ადამიანებს ხშირად ავიწყდებათ: ყუთის გახსნა გარდაუვალია, თუ არა შენ მიერ, ვიდრე სხვის მიერ. აკრძალული ცოდნა ძალიან მაცდურია სამუდამოდ ჩაკეტილი დარჩენისთვის.

    სწორედ ამიტომ არის უაზრო გლობალური შეთანხმების მიღწევის მცდელობა, რათა შეწყდეს ხელოვნური ინტელექტის შესახებ ყველა კვლევა, რამაც შეიძლება გამოიწვიოს ASI - უბრალოდ ძალიან ბევრი ორგანიზაცია მუშაობს ამ ტექნოლოგიაზე, როგორც ოფიციალურად, ასევე ჩრდილში.

    საბოლოო ჯამში, ჩვენ არ გვაქვს წარმოდგენა, რას ნიშნავს ეს ახალი ერთეული, ეს ASI საზოგადოებისთვის, ტექნოლოგიებისთვის, პოლიტიკისთვის, მშვიდობისა და ომისთვის. ჩვენ ადამიანები ვაპირებთ თავიდან გამოვიგონოთ ცეცხლი და სად მიგვიყვანს ეს ქმნილება, სრულიად უცნობია.

    ამ სერიის პირველ თავში რომ ვუბრუნდებით, ერთი, რაც დანამდვილებით ვიცით არის ის, რომ ინტელექტი ძალაა. დაზვერვა არის კონტროლი. ადამიანებს შეუძლიათ შემთხვევით მოინახულონ მსოფლიოს ყველაზე საშიში ცხოველები ადგილობრივ ზოოპარკებში არა იმიტომ, რომ ჩვენ ამ ცხოველებზე ფიზიკურად ძლიერები ვართ, არამედ იმიტომ, რომ საგრძნობლად უფრო ჭკვიანები ვართ.

    იმ პოტენციური ფსონების გათვალისწინებით, რომ ASI იყენებს თავის უზარმაზარ ინტელექტს ისეთი ქმედებების განსახორციელებლად, რომლებიც პირდაპირ ან უნებლიეთ საფრთხეს უქმნის კაცობრიობის გადარჩენას, ჩვენ ვალდებულნი ვართ, სულ მცირე, შევეცადოთ შევიმუშავოთ დაცვა, რომელიც საშუალებას მისცემს ადამიანებს დარჩეს მძღოლის განყოფილებაში. სავარძელი -ამ შემდეგი თავის თემაა.

    ხელოვნური ინტელექტის სერიების მომავალი

    Q1: ხელოვნური ინტელექტი ხვალინდელი ელექტროენერგიაა

    Q2: როგორ შეცვლის საზოგადოებას პირველი ხელოვნური გენერალური ინტელექტი

    Q3: როგორ შევქმნით პირველ ხელოვნურ სუპერინტელექტს

    Q5: როგორ დაიცავს ადამიანები ხელოვნური სუპერინტელექტისგან

    Q6: იცხოვრებენ თუ არა ადამიანები მშვიდობიანად მომავალში, სადაც დომინირებს ხელოვნური ინტელექტი?

    შემდეგი დაგეგმილი განახლება ამ პროგნოზისთვის

    2025-09-25

    პროგნოზის მითითებები

    ამ პროგნოზისთვის მითითებული იყო შემდეგი პოპულარული და ინსტიტუციური ბმულები:

    როგორ მივდივართ შემდეგზე

    ამ პროგნოზისთვის მითითებულ იქნა შემდეგი Quantumrun ბმულები: