Jak stworzymy pierwszą sztuczną inteligencję: Przyszłość sztucznej inteligencji P3

KREDYT WZROKU: Quantumrun

Jak stworzymy pierwszą sztuczną inteligencję: Przyszłość sztucznej inteligencji P3

    W głębi II wojny światowej siły nazistowskie przetaczały się przez większą część Europy. Mieli zaawansowaną broń, sprawny przemysł wojenny, fanatycznie napędzaną piechotę, ale przede wszystkim maszynę o nazwie Enigma. To urządzenie umożliwiło siłom nazistowskim bezpieczną współpracę na duże odległości poprzez wysyłanie do siebie wiadomości zakodowanych alfabetem Morse'a za pośrednictwem standardowych linii komunikacyjnych; była to maszyna szyfrująca nie do zdobycia dla łamaczy kodów. 

    Na szczęście alianci znaleźli rozwiązanie. Nie potrzebowali już ludzkiego umysłu, by złamać Enigmę. Zamiast tego, dzięki wynalazkowi nieżyjącego już Alana Turinga, alianci zbudowali nowe, rewolucyjne narzędzie o nazwie Brytyjska bomba, urządzenie elektromechaniczne, które w końcu rozszyfrowało tajny kod nazistów i ostatecznie pomogło im wygrać wojnę.

    Ta Bomba położyła podwaliny pod to, co stało się nowoczesnym komputerem.

    Podczas projektu rozwojowego Bombe u boku Turinga pracował IJ Good, brytyjski matematyk i kryptolog. Na początku gry końcowej zobaczył, że to nowe urządzenie może pewnego dnia przynieść. W Papier 1965, on napisał:

    „Niech ultrainteligentną maszynę można zdefiniować jako maszynę, która może znacznie przewyższyć wszystkie intelektualne działania każdego człowieka, choćby najmądrzejszego. Ponieważ projektowanie maszyn jest jedną z tych czynności intelektualnych, ultrainteligentna maszyna mogłaby zaprojektować jeszcze lepsze maszyny; doszłoby wtedy bezsprzecznie do „eksplozji inteligencji”, a inteligencja człowieka zostałaby daleko w tyle… Tak więc pierwsza ultrainteligentna maszyna jest ostatnim wynalazkiem, jaki człowiek musi kiedykolwiek zrobić, pod warunkiem, że maszyna jest na tyle posłuszna, by nam powiedzieć, jak by mieć to pod kontrolą”.

    Stworzenie pierwszej sztucznej superinteligencji

    Do tej pory w naszej serii Future of Artificial Intelligence zdefiniowaliśmy trzy szerokie kategorie sztucznej inteligencji (AI), od sztuczna wąska inteligencja (ANI) do sztuczna inteligencja ogólna (AGI), ale w tym rozdziale serii skupimy się na ostatniej kategorii — tej, która wywołuje podekscytowanie lub ataki paniki wśród badaczy sztucznej inteligencji — sztucznej superinteligencji (ASI).

    Aby zrozumieć, czym jest ASI, musisz cofnąć się myślą do ostatniego rozdziału, w którym opisaliśmy, w jaki sposób badacze AI wierzą, że stworzą pierwszy AGI. Zasadniczo będzie to wymagało połączenia lepszych algorytmów do obsługi dużych zbiorów danych (specjalizujęcych się w samodoskonaleniu i zdolnościach uczenia się podobnych do ludzkich) umieszczonych w coraz mocniejszym sprzęcie komputerowym.

    W tym rozdziale opisaliśmy również, w jaki sposób umysł AGI (kiedy zdobędzie te zdolności do samodoskonalenia i uczenia się, które my, ludzie, przyjmujemy za pewnik) ostatecznie przewyższy ludzki umysł dzięki większej szybkości myślenia, lepszej pamięci, niestrudzonej wydajności i natychmiastowa aktualizacja.

    Ale tutaj ważne jest, aby pamiętać, że AGI samodoskonali się tylko do ograniczeń sprzętu i danych, do których ma dostęp; limit ten może być duży lub mały w zależności od nadanego mu korpusu robota lub skali komputerów, do których umożliwiamy mu dostęp.

    Tymczasem różnica między AGI a ASI polega na tym, że ten ostatni teoretycznie nigdy nie będzie istniał w formie fizycznej. Będzie działać w całości w ramach superkomputera lub sieci superkomputerów. W zależności od celów jego twórców, może również uzyskać pełny dostęp do wszystkich danych przechowywanych w Internecie, a także do dowolnego urządzenia lub człowieka, który przesyła dane do i przez Internet. Oznacza to, że nie będzie żadnych praktycznych ograniczeń co do tego, ile ten ASI może się nauczyć i jak bardzo może się doskonalić. 

    I to jest problem. 

    Zrozumienie eksplozji inteligencji

    Ten proces samodoskonalenia, który sztuczna inteligencja w końcu zyska, gdy stanie się AGI (proces, który społeczność AI nazywa rekurencyjnym samodoskonaleniem), może potencjalnie uruchomić pętlę pozytywnego sprzężenia zwrotnego, która wygląda mniej więcej tak:

    Powstaje nowy AGI, który otrzymuje dostęp do ciała robota lub dużego zbioru danych, a następnie otrzymuje proste zadanie samokształcenia się, doskonalenia jego inteligencji. Na początku ten AGI będzie miał IQ niemowlęcia walczącego o zrozumienie nowych koncepcji. Z biegiem czasu uczy się wystarczająco, aby osiągnąć IQ przeciętnego dorosłego, ale na tym się nie kończy. Korzystając z tego nowo odkrytego IQ dorosłego, znacznie łatwiej i szybciej można kontynuować tę poprawę do punktu, w którym jego IQ odpowiada IQ najmądrzejszych znanych ludzi. Ale znowu, to nie koniec.

    Proces ten składa się na każdym nowym poziomie inteligencji, zgodnie z prawem przyspieszania powrotów, aż osiągnie nieobliczalny poziom superinteligencji – innymi słowy, jeśli pozostawiony bez kontroli i mając nieograniczone zasoby, AGI samodoskonali się w ASI, intelekt, który nigdy wcześniej nie istniał w naturze.

    To właśnie IJ Good po raz pierwszy zidentyfikował, kiedy opisał tę „eksplozję inteligencji” lub to, co współcześni teoretycy AI, tacy jak Nick Bostrom, nazywają „startem” AI.

    Zrozumienie sztucznej superinteligencji

    W tym momencie niektórzy z was prawdopodobnie myślą, że kluczową różnicą między ludzką inteligencją a inteligencją ASI jest szybkość myślenia obu stron. I chociaż prawdą jest, że ta teoretyczna przyszłość ASI będzie myśleć szybciej niż ludzie, ta umiejętność jest już dość powszechna w dzisiejszym sektorze komputerowym – nasz smartfon myśli (oblicza) szybciej niż ludzki umysł, a Superkomputer myśli miliony razy szybciej niż smartfon, a przyszły komputer kwantowy będzie myślał jeszcze szybciej. 

    Nie, prędkość nie jest cechą inteligencji, którą tutaj wyjaśniamy. To jakość. 

    Możesz przyspieszyć mózg swojego Samoyeda lub Corgi, ile tylko chcesz, ale to nie przekłada się na nowe zrozumienie, jak interpretować język lub abstrakcyjne pomysły. Nawet po dodatkowej dekadzie lub dwóch te psiaki nagle nie zrozumieją, jak wytwarzać lub używać narzędzi, nie mówiąc już o zrozumieniu subtelniejszych różnic między kapitalistycznym a socjalistycznym systemem gospodarczym.

    Jeśli chodzi o inteligencję, ludzie działają na innej płaszczyźnie niż zwierzęta. Podobnie, jeśli ASI osiągnie swój pełny teoretyczny potencjał, ich umysły będą działać na poziomie daleko poza zasięgiem przeciętnego współczesnego człowieka. Dla pewnego kontekstu przyjrzyjmy się aplikacjom tych ASI.

    Jak sztuczna superinteligencja może działać obok ludzkości?

    Zakładając, że pewien rząd lub korporacja odniesie sukces w tworzeniu ASI, jak mogą go wykorzystać? Według Bostroma istnieją trzy oddzielne, ale powiązane formy, które te ASI mogą przybrać:

    • Wyrocznia. Tutaj wchodzilibyśmy w interakcję z ASI tak samo, jak robimy to już z wyszukiwarką Google; zadamy mu pytanie, ale bez względu na to, jak złożone jest to pytanie, ASI odpowie na nie perfekcyjnie i w sposób dostosowany do Ciebie i kontekstu Twojego pytania.
    • dżin. W takim przypadku przypiszemy ASI określone zadanie i wykonamy je zgodnie z poleceniem. Zbadaj lekarstwo na raka. Gotowe. Znajdź wszystkie planety ukryte w zaległościach z 10 lat zdjęć z Kosmicznego Teleskopu Hubble'a NASA. Gotowe. Zaprojektuj działający reaktor termojądrowy, aby zaspokoić zapotrzebowanie ludzkości na energię. Abrakadabra.
    • Suwerenny. Tutaj ASI otrzymuje misję otwartą i ma swobodę jej wykonywania. Ukradnij sekrety B+R od naszego korporacyjnego konkurenta. "Łatwo." Odkryj tożsamość wszystkich zagranicznych szpiegów ukrywających się w naszych granicach. "Na tym." Zapewnij stały dobrobyt gospodarczy Stanów Zjednoczonych. "Nie ma problemu."

    Teraz wiem, o czym myślisz, to wszystko brzmi dość daleko. Dlatego ważne jest, aby pamiętać, że każdy problem/wyzwanie, nawet te, które do tej pory wprawiały w zakłopotanie najbystrzejsze umysły świata, są do rozwiązania. Ale trudność problemu jest mierzona przez intelekt, który się z nim rozwiązuje.

    Innymi słowy, im bardziej umysł przykłada się do wyzwania, tym łatwiej jest znaleźć rozwiązanie tego wyzwania. Każde wyzwanie. To tak, jakby dorosły obserwował niemowlę, które usiłuje zrozumieć, dlaczego nie może włożyć kwadratowego klocka w okrągły otwór – dla dorosłego pokazanie niemowlęciu, że klocek powinien pasować przez kwadratowy otwór, byłoby dziecinnie proste.

    Podobnie, gdyby ten przyszły ASI osiągnął swój pełny potencjał, umysł ten stałby się najpotężniejszym intelektem w znanym wszechświecie — wystarczająco potężnym, by stawić czoła każdemu wyzwaniu, bez względu na jego złożoność. 

    Dlatego wielu badaczy sztucznej inteligencji nazywa ASI ostatnim wynalazkiem, jakiego człowiek kiedykolwiek będzie musiał dokonać. Jeśli zostanie przekonany do współpracy z ludzkością, może pomóc nam rozwiązać wszystkie najbardziej palące problemy świata. Możemy nawet poprosić go o wyeliminowanie wszelkich chorób i zakończenie starzenia się, jakie znamy. Ludzkość po raz pierwszy może na stałe oszukać śmierć i wejść w nową erę dobrobytu.

    Ale możliwe jest również odwrotnie. 

    Inteligencja to potęga. Jeśli źle zarządzany lub poinstruowany przez złych aktorów, ten ASI może stać się ostatecznym narzędziem ucisku lub może całkowicie wytępić ludzkość - pomyśl o Skynet z Terminatora lub Architekta z filmów Matrix.

    Prawdę mówiąc, żadna skrajność nie jest prawdopodobna. Przyszłość jest zawsze dużo bardziej bałaganiarska, niż przewidują utopiści i dystopiści. Dlatego teraz, gdy rozumiemy koncepcję ASI, reszta tej serii będzie badać, w jaki sposób ASI wpłynie na społeczeństwo, jak społeczeństwo będzie bronić się przed nieuczciwym ASI i jak może wyglądać przyszłość, gdyby ludzie i sztuczna inteligencja żyli obok siebie -bok. Czytaj.

    Przyszłość serii Sztucznej Inteligencji

    Sztuczna inteligencja to elektryczność jutra: przyszłość sztucznej inteligencji serii P1

    Jak pierwsza sztuczna inteligencja ogólna zmieni społeczeństwo: przyszłość sztucznej inteligencji seria P2

    Czy sztuczny superinteligencja zniszczy ludzkość?: Przyszłość sztucznej inteligencji seria P4

    Jak ludzie będą się bronić przed sztuczną inteligencją: przyszłość sztucznej inteligencji seria P5

    Czy ludzie będą żyć spokojnie w przyszłości zdominowanej przez sztuczną inteligencję?: Przyszłość Sztucznej Inteligencji seria P6

    Następna zaplanowana aktualizacja tej prognozy

    2023-04-27

    Odniesienia do prognoz

    W tej prognozie odniesiono się do następujących powiązań popularnych i instytucjonalnych:

    YouTube – Światowe Forum Ekonomiczne

    W tej prognozie odniesiono się do następujących linków Quantumrun: