როგორ შევქმნით პირველ ხელოვნურ სუპერინტელექტს: ხელოვნური ინტელექტის მომავალი P3

სურათის კრედიტი: Quantumrun

როგორ შევქმნით პირველ ხელოვნურ სუპერინტელექტს: ხელოვნური ინტელექტის მომავალი P3

    მეორე მსოფლიო ომის სიღრმეში ნაცისტური ძალები ორთქლზე ტრიალებდნენ ევროპის დიდ ნაწილზე. მათ ჰქონდათ მოწინავე იარაღი, ეფექტური ომის დროს მრეწველობა, ფანატიკურად მართული ქვეითი ჯარი, მაგრამ უპირველეს ყოვლისა, მათ ჰქონდათ მანქანა სახელად Enigma. ამ მოწყობილობამ ნაცისტურ ძალებს საშუალება მისცა უსაფრთხოდ ეთანამშრომლათ დიდ დისტანციებზე მორზეს კოდირებული შეტყობინებების გაგზავნით ერთმანეთს სტანდარტული საკომუნიკაციო ხაზებით; ეს იყო შიფრული მანქანა, რომელიც მიუწვდომელი იყო ადამიანების კოდის ამომრთველებისთვის. 

    საბედნიეროდ, მოკავშირეებმა იპოვეს გამოსავალი. მათ აღარ სჭირდებოდათ ადამიანის გონება ენიგმას გასატეხად. ამის ნაცვლად, გარდაცვლილი ალან ტურინგის გამოგონების წყალობით, მოკავშირეებმა ააშენეს რევოლუციური ახალი ინსტრუმენტი, სახელწოდებით ბრიტანული ბომბი, ელექტრომექანიკური მოწყობილობა, რომელმაც საბოლოოდ გაშიფრა ნაცისტების საიდუმლო კოდი და საბოლოოდ დაეხმარა მათ ომის მოგებაში.

    ამ ბომბმა საფუძველი ჩაუყარა იმას, რაც გახდა თანამედროვე კომპიუტერი.

    Bombe-ს განვითარების პროექტის დროს ტურინგთან ერთად მუშაობდა ბრიტანელი მათემატიკოსი და კრიპტოლოგი აიჯ გუდი. მან ნახა ბოლოს თამაში, რომელიც ამ ახალ მოწყობილობას ერთ დღეს შეეძლო. Ში 1965 ქაღალდი, მან დაწერა:

    „მოდით, ულტრაინტელექტუალური მანქანა განისაზღვროს, როგორც მანქანა, რომელსაც შეუძლია გადააჭარბოს ნებისმიერი ადამიანის ინტელექტუალურ საქმიანობას, რაც არ უნდა ჭკვიანი იყოს. ვინაიდან მანქანების დიზაინი ერთ-ერთი ასეთი ინტელექტუალური საქმიანობაა, ულტრა ინტელექტუალურ მანქანას შეუძლია შექმნას კიდევ უკეთესი მანქანები; მაშინ უეჭველად მოხდებოდა "ინტელექტუალური აფეთქება" და ადამიანის ინტელექტი შორს დარჩებოდა... ამგვარად, პირველი ულტრაინტელექტუალური მანქანა არის უკანასკნელი გამოგონება, რომელიც ადამიანმა ოდესმე უნდა გააკეთოს, იმ პირობით, რომ მანქანა საკმარისად მორჩილი უნდა გვითხრას, როგორ რომ ის კონტროლის ქვეშ იყოს“.

    პირველი ხელოვნური სუპერინტელექტის შექმნა

    ჯერჯერობით ჩვენს სერიებში „ხელოვნური ინტელექტის მომავლის“ სერიებში, ჩვენ განვსაზღვრეთ ხელოვნური ინტელექტის (AI) სამი ფართო კატეგორია. ხელოვნური ვიწრო ინტელექტი (ANI) to ხელოვნური ზოგადი ინტელექტი (AGI), მაგრამ ამ სერიის თავში, ჩვენ ყურადღებას გავამახვილებთ ბოლო კატეგორიაზე - ის, რომელიც იწვევს ან აღგზნებას ან პანიკის შეტევებს AI მკვლევარებს შორის - ხელოვნურ სუპერინტელექტს (ASI).

    იმისათვის, რომ თავი დაამყაროთ იმაზე, თუ რა არის ASI, თქვენ უნდა დაფიქრდეთ ბოლო თავში, სადაც ჩვენ ავღნიშნეთ, თუ როგორ თვლიან ხელოვნური ინტელექტის მკვლევარები, რომ შექმნიან პირველ AGI-ს. ძირითადად, დასჭირდება დიდი მონაცემების უკეთესი ალგორითმების კომბინაცია (ისინი, რომლებიც სპეციალიზირებულია თვითგანვითარებისა და ადამიანის მსგავსი სწავლის უნარებში), რომლებიც განთავსებულია მზარდ გამოთვლით აპარატურაში.

    ამ თავში ჩვენ ასევე ავღნიშნეთ, თუ როგორ AGI გონება (როდესაც იგი მოიპოვებს ამ თვითგაუმჯობესებას და სწავლის უნარებს, რომლებიც ჩვენ, ადამიანებმა თავისთავად მიგვაჩნია) საბოლოოდ აჯობებს ადამიანის გონებას აზროვნების უმაღლესი სიჩქარით, გაძლიერებული მეხსიერებით, დაუღალავი მოქმედებით და მყისიერი განახლება.

    მაგრამ აქ მნიშვნელოვანია აღინიშნოს, რომ AGI მხოლოდ თვითგაუმჯობესდება იმ ტექნიკისა და მონაცემების საზღვრამდე, რომლებზეც მას აქვს წვდომა; ეს ლიმიტი შეიძლება იყოს დიდი ან მცირე, იმისდა მიხედვით, თუ რა რობოტის სხეულს ვაძლევთ მას ან კომპიუტერების მასშტაბიდან, რომლებზეც მას წვდომის უფლებას ვაძლევთ.

    იმავდროულად, განსხვავება AGI-სა და ASI-ს შორის არის ის, რომ ეს უკანასკნელი, თეორიულად, არასოდეს იარსებებს ფიზიკური ფორმით. ის მთლიანად იმუშავებს სუპერკომპიუტერის ან სუპერკომპიუტერების ქსელის ფარგლებში. მისი შემქმნელების მიზნებიდან გამომდინარე, მას ასევე შეუძლია მიიღოს სრული წვდომა ინტერნეტში შენახულ ყველა მონაცემზე, ისევე როგორც ნებისმიერ მოწყობილობაზე ან ადამიანზე, რომელიც აწვდის მონაცემებს ინტერნეტში და ინტერნეტში. ეს ნიშნავს, რომ არ იქნება პრაქტიკული ლიმიტი იმის შესახებ, თუ რამდენად შეუძლია ამ ASI-ს სწავლა და რამდენად შეუძლია მას თვითგაუმჯობესება. 

    და ეს არის რუბლი. 

    სადაზვერვო აფეთქების გაგება

    თვითგაუმჯობესების ეს პროცესი, რომელსაც AI-ები საბოლოოდ მოიპოვებენ, როდესაც ისინი გახდებიან AGI (პროცესი, რომელსაც AI საზოგადოება უწოდებს რეკურსიულ თვითგაუმჯობესებას) შეიძლება პოტენციურად გამოაჩინოს დადებითი გამოხმაურების ციკლი, რომელიც ასე გამოიყურება:

    იქმნება ახალი AGI, რომელსაც ეძლევა წვდომა რობოტის სხეულზე ან დიდ მონაცემთა ბაზაზე და შემდეგ ეძლევა მარტივი დავალება საკუთარი თავის განათლებაზე, მისი ინტელექტის გაუმჯობესებაზე. თავდაპირველად, ამ AGI-ს ექნება ჩვილის IQ, რომელიც იბრძვის ახალი ცნებების ათვისებაში. დროთა განმავლობაში ის საკმარისს სწავლობს, რომ საშუალო ზრდასრული ადამიანის IQ-ს მიაღწიოს, მაგრამ აქ არ ჩერდება. ამ ახლად აღმოჩენილი ზრდასრული IQ-ის გამოყენებით, ბევრად უფრო ადვილი და სწრაფი ხდება ამ გაუმჯობესების გაგრძელება იმ დონემდე, რომ მისი IQ ემთხვევა ყველაზე ჭკვიანი ადამიანების ინტელექტს. მაგრამ ისევ აქ არ მთავრდება.

    ეს პროცესი ერწყმის ინტელექტის ყოველ ახალ დონეს, მიჰყვება აჩქარების დაბრუნების კანონს მანამ, სანამ არ მიაღწევს სუპერინტელექტის დაუთვალებელ დონეს - სხვა სიტყვებით რომ ვთქვათ, თუ დარჩება შეუმოწმებელი და მიეცემა შეუზღუდავი რესურსები, AGI თვითგაუმჯობესდება ASI-ში, ინტელექტად, რომელიც არასოდეს ყოფილა ბუნებაში.

    ეს არის ის, რაც IJ Good-მა პირველად დაადგინა, როდესაც მან აღწერა ეს „დაზვერვის აფეთქება“ ან რასაც თანამედროვე ხელოვნური ინტელექტის თეორეტიკოსები, როგორიცაა ნიკ ბოსტრომი, უწოდებენ AI-ს „აფრენის“ მოვლენას.

    ხელოვნური სუპერინტელექტის გაგება

    ამ ეტაპზე, ზოგიერთი თქვენგანი ალბათ ფიქრობს, რომ მთავარი განსხვავება ადამიანის ინტელექტსა და ASI-ს ინტელექტს შორის არის ის, თუ რამდენად სწრაფად შეუძლია აზროვნება ორივე მხარეს. და მართალია, ეს თეორიული მომავალი ASI უფრო სწრაფად იფიქრებს, ვიდრე ადამიანები, ეს უნარი უკვე საკმაოდ გავრცელებულია დღევანდელ კომპიუტერულ სექტორში - ჩვენი სმარტფონი ფიქრობს (ითვლის) უფრო სწრაფად, ვიდრე ადამიანის გონება. სუპერკომპიუტერი ფიქრობს მილიონჯერ უფრო სწრაფად, ვიდრე სმარტფონი, ხოლო მომავალი კვანტური კომპიუტერი კიდევ უფრო სწრაფად იფიქრებს. 

    არა, სიჩქარე არ არის ინტელექტის მახასიათებელი, რომელსაც აქ ავხსნით. ეს არის ხარისხი. 

    თქვენ შეგიძლიათ დააჩქაროთ თქვენი Samoyed-ის ან Corgi-ს ტვინი, რაც გსურთ, მაგრამ ეს არ ითარგმნება ახალ გაგებაში, თუ როგორ უნდა ინტერპრეტაცია გაუკეთოთ ენას ან აბსტრაქტულ იდეებს. კიდევ ერთი-ორი ათწლეულის შემდეგაც კი, ეს ძაღლები უცებ ვერ გაიგებენ, თუ როგორ უნდა შექმნან ან გამოიყენონ ინსტრუმენტები, რომ აღარაფერი ვთქვათ უფრო დეტალური განსხვავებები კაპიტალისტურ და სოციალისტურ ეკონომიკურ სისტემას შორის.

    რაც შეეხება ინტელექტს, ადამიანები მოქმედებენ განსხვავებულ სიბრტყეზე, ვიდრე ცხოველები. ანალოგიურად, თუ ASI მიაღწევს თავის სრულ თეორიულ პოტენციალს, მათი გონება იმუშავებს ისეთ დონეზე, რომელიც ბევრად აღემატება საშუალო თანამედროვე ადამიანს. გარკვეული კონტექსტისთვის, მოდით გადავხედოთ ამ ASI-ს აპლიკაციებს.

    როგორ შეუძლია ხელოვნური სუპერინტელექტის მუშაობა კაცობრიობის გვერდით?

    თუ ვივარაუდოთ, რომ გარკვეული მთავრობა ან კორპორაცია წარმატებულია ASI-ს შექმნაში, როგორ შეიძლება გამოიყენონ იგი? ბოსტრომის თანახმად, არსებობს სამი ცალკეული, მაგრამ დაკავშირებული ფორმა, რომელიც შეიძლება მიიღოს ამ ASI-მ:

    • Oracle აქ ჩვენ ვიმოქმედებთ ASI-სთან ისევე, როგორც უკვე ვაკეთებთ Google-ის საძიებო სისტემას; ჩვენ დავუსვამთ მას კითხვას, მაგრამ რაც არ უნდა რთული იყოს ნათქვამი შეკითხვა, ASI სრულყოფილად გიპასუხებს და ისე, როგორც მორგებულია თქვენზე და თქვენი შეკითხვის კონტექსტზე.
    • Genie. ამ შემთხვევაში, ჩვენ მივანიჭებთ ASI-ს კონკრეტულ დავალებას და ის შეასრულებს ბრძანების მიხედვით. გამოიკვლიეთ კიბოს სამკურნალო საშუალება. Შესრულებულია. იპოვეთ ყველა პლანეტა, რომელიც დამალულია NASA-ს ჰაბლის კოსმოსური ტელესკოპის 10 წლის სურათების ნარჩენებში. Შესრულებულია. შექმენით მოქმედი შერწყმის რეაქტორი კაცობრიობის ენერგიის მოთხოვნის გადასაჭრელად. აბრაკადაბრა.
    • სუვერენული. აქ ASI-ს ენიჭება უსასრულო მისია და ეძლევა მისი შესრულების თავისუფლება. მოიპარეთ R&D საიდუმლოებები ჩვენი კორპორატიული კონკურენტისგან. "Მარტივი." აღმოაჩინეთ ყველა უცხოელი ჯაშუშის ვინაობა, რომლებიც იმალებიან ჩვენს საზღვრებში. "მასზე." უზრუნველყოს შეერთებული შტატების მუდმივი ეკონომიკური კეთილდღეობა. "Არაა პრობლემა."

    ახლა მე ვიცი რას ფიქრობ, ეს ყველაფერი საკმაოდ შორს ჟღერს. ამიტომ მნიშვნელოვანია გვახსოვდეს, რომ ყველა პრობლემა/გამოწვევა, თუნდაც ის, ვინც დღემდე აბრკოლებს მსოფლიოს ყველაზე ნათელ გონებას, ისინი ყველა გადასაჭრელია. მაგრამ პრობლემის სირთულე იზომება ინტელექტით, რომელიც მას უმკლავდება.

    სხვა სიტყვებით რომ ვთქვათ, რაც უფრო მეტად მიმართავს გონება გამოწვევას, მით უფრო ადვილი ხდება ამ გამოწვევის გადაწყვეტის პოვნა. ნებისმიერი გამოწვევა. ეს იგივეა, თუ ზრდასრული უყურებს ჩვილს, როგორ იბრძვის იმის გასაგებად, თუ რატომ ვერ ათავსებს კვადრატულ ბლოკს მრგვალ ღიობში - ზრდასრულისთვის, ბავშვის ჩვენება, რომ ბლოკი უნდა მოერგოს კვადრატულ გახსნას, ბავშვის თამაში იქნება.

    ანალოგიურად, თუ ეს მომავალი ASI მიაღწევს თავის სრულ პოტენციალს, ეს გონება გახდება ყველაზე ძლიერი ინტელექტი ცნობილ სამყაროში - საკმარისად ძლიერი, რომ გადაჭრას ნებისმიერი გამოწვევა, რაც არ უნდა რთული იყოს. 

    სწორედ ამიტომ ბევრი AI მკვლევარი უწოდებს ASI-ს უკანასკნელ გამოგონებას, რომელსაც ოდესმე მოუწევს ადამიანმა გააკეთოს. თუ დარწმუნებული ხართ, რომ ვიმუშაოთ კაცობრიობის გვერდით, ის დაგვეხმარება მსოფლიოს ყველა ყველაზე აქტუალური პრობლემის გადაჭრაში. ჩვენ შეგვიძლია კი ვთხოვოთ მას, რომ აღმოფხვრას ყველა დაავადება და დაასრულოს დაბერება, როგორც ეს ვიცით. კაცობრიობას შეუძლია პირველად მოატყუოს სიკვდილი სამუდამოდ და შევიდეს კეთილდღეობის ახალ ეპოქაში.

    მაგრამ პირიქითაც შესაძლებელია. 

    ინტელექტი არის ძალა. თუ არასწორად მართავდნენ ან ინსტრუქციებს მიიღებენ ცუდი მსახიობების მიერ, ეს ASI შეიძლება გახდეს ჩაგვრის საბოლოო იარაღი, ან შეიძლება მთლიანად მოსპოს კაცობრიობა - იფიქრეთ Skynet ტერმინატორიდან ან არქიტექტორი მატრიქსის ფილმებიდან.

    სინამდვილეში, არც ერთი უკიდურესობაა სავარაუდო. მომავალი ყოველთვის ბევრად უფრო ბინძურია, ვიდრე უტოპიელები და დისტოპიელები წინასწარმეტყველებენ. სწორედ ამიტომ, ახლა, როდესაც ჩვენ გვესმის ASI-ს კონცეფცია, ამ სერიის დანარჩენი ნაწილი შეისწავლის, თუ როგორ იმოქმედებს ASI საზოგადოებაზე, როგორ დაიცავს საზოგადოება თაღლითური ASI-სგან და როგორ შეიძლება გამოიყურებოდეს მომავალი, თუ ადამიანები და AI იცხოვრებენ გვერდით. -გვერდით. წაიკითხეთ.

    ხელოვნური ინტელექტის სერიების მომავალი

    ხელოვნური ინტელექტი არის ხვალინდელი ელექტროენერგია: ხელოვნური ინტელექტის მომავალი სერია P1

    როგორ შეცვლის საზოგადოებას პირველი ხელოვნური ზოგადი ინტელექტი: ხელოვნური ინტელექტის მომავალი სერია P2

    მოსპობს თუ არა ხელოვნური სუპერინტელექტი კაცობრიობას?: ხელოვნური ინტელექტის მომავალი სერია P4

    როგორ დაიცავს ადამიანები ხელოვნური სუპერინტელექტისგან: ხელოვნური ინტელექტის მომავალი სერია P5

    იცხოვრებენ თუ არა ადამიანები მშვიდობიანად მომავალში, სადაც დომინირებს ხელოვნური ინტელექტი?: ხელოვნური ინტელექტის მომავალი სერია P6

    შემდეგი დაგეგმილი განახლება ამ პროგნოზისთვის

    2023-04-27

    პროგნოზის მითითებები

    ამ პროგნოზისთვის მითითებული იყო შემდეგი პოპულარული და ინსტიტუციური ბმულები:

    Intelligence.org

    ამ პროგნოზისთვის მითითებულ იქნა შემდეგი Quantumrun ბმულები: