Druga sztuczna inteligencja

Ciąg dalszy niniejszego wpisu: „Przełom, który wystraszył wtajemniczonych”


Fragment artykułu „MIT Technology Review” z kwietnia 2017 roku.

Maszyna–samouk

Od samego początku „przygody” z programowaniem tzw. inteligentnych maszyn istniały dwie szkoły. Część wynalazców chciała budować maszyny rozumujące zgodnie z zasadami i logiką. Inni byli zdania, że inteligencja maszyn pojawi się łatwiej, jeśli będą one czerpać inspirację z biologii i uczyć się poprzez obserwację i doświadczanie. Oznaczało to postawienie programowania komputerowego na głowie. Zamiast programisty piszącego polecenia mające pomóc w rozwiązaniu problemu, program generuje własny algorytm na podstawie danych przykładowych i pożądanego wyniku. Techniki uczenia maszynowego, które ewoluując stały się najpotężniejszymi znanymi dzisiaj systemami sztucznej inteligencji, podążały tą drugą drogą: dzisiaj maszyna zasadniczo programuje sama siebie.

Początkowo podejście to miało ograniczone zastosowanie praktyczne. Zainteresowanie nim powróciło ze względu na komputeryzację wielu gałęzi przemysłu i pojawienie się dużych zbiorów danych. Zainspirowało to naukowców, aby rozwijać potężniejsze techniki uczenia maszynowego, a w szczególności nowe wersje jednej z nich: sztucznej sieci neuronowej. W latach 90. sieci neuronowe potrafiły już automatycznie digitalizować znaki pisane ręcznie, ale dopiero na początku minionej dekady, po kilku zmyślnych poprawkach i udoskonaleniach, te bardzo rozległe – in. „głębokie” – sieci odnotowały radykalną poprawę w zakresie percepcji automatycznej.

Nieprzenikniona „czarna skrzynka”

W 2016 roku na spokojne drogi hrabstwa Monmouth w stanie New Jersey wtoczyło się eksperymentalne samojezdne auto opracowane przez naukowców z Nvidii. Wyglądem nie różniło się od innych autonomicznych pojazdów, ale nie przypominało niczego, co wcześniej stworzyła korporacja Google, Tesla czy General Motors. Samochód nie reagował na instrukcje inżyniera lub programisty. Polegał całkowicie na algorytmie, który sam nauczył się prowadzić – obserwował, jak robi to człowiek.

Było to przełomowe zastosowanie uczenia głębokiego (ang. deep-learning) – podstawowej, najbardziej powszedniej obecnie technologii, która odpowiada za eksplozję sztucznej inteligencji. Wykorzystują ją chociażby aplikacje i strony internetowe, aby wyświetlać reklamy lub rekomendacje filmów i utworów muzycznych. Komputery dostarczające tych usług zaprogramowały się samodzielnie i zrobiły to w sposób, którego inżynierowie nie rozumieją.

Uczenie głębokie jest wykorzystywane do podejmowania wszelkiego rodzaju kluczowych decyzji w medycynie, wojskowości, finansach, produkcji i innych. Ze swojej natury jest ono nieprzeniknioną „czarną skrzynką”. Nie można tak po prostu zajrzeć do głębokiej sieci neuronowej, aby zobaczyć, jak działa. Jej rozumowanie jest osadzone w zachowaniu tysięcy symulowanych neuronów, ułożonych w dziesiątki, a nawet setki połączonych ze sobą warstw. W sieci ma miejsce interakcja obliczeń, które są swoistym trzęsawiskiem funkcji i zmiennych matematycznych. Gdybyśmy mieli do czynienia z niewielką siecią neuronową, jej zrozumienie najprawdopodobniej byłoby w naszym zasięgu – mówi Tommi Jaakkola, profesor MIT, który zajmuje się zastosowaniami uczenia maszynowego. Ale sieć rozległa – z tysiącami jednostek na warstwę i setkami samych warstw – staje się zupełnie niezrozumiała.

W tej sytuacji przewidzenie nieuniknionych awarii i niepożądanych zachowań jest niemożliwe.


Premiera najnowszego modelu języka

GPT-4 to potężny multimodalny model języka wydany w pierwszym tygodniu kwietnia 2023 roku przez OpenAI. Posiada on zdolność tworzenia tekstu, która jest podobna do ludzkiej mowy. Podstawą modelu jest architektura transformatorowa, rodzaj głębokiej sieci neuronowej stworzonej specjalnie dla aplikacji programowanie neurolingwistycznego (NLP), czyli uporządkowanego zbioru technik komunikacji oraz metod pracy z wyobrażeniami, nastawionych na tworzenie i modyfikowanie wzorców postrzegania i myślenia u ludzi. GPT-4 uczy się wzorców i struktur językowych niezbędnych do redagowania spójnych i naturalnie brzmiących tekstów, wykorzystując ogromny zbiór danych z Internetu, książek i innych źródeł.

Zdolność GPT-4 do wykonywania różnych zadań NLP bez wymogu specjalnego szkolenia pod kątem określonego zadania jest jedną z kluczowych jego zalet. Pisząc, tłumacząc, streszczając i udzielając odpowiedzi, wykazał się wielką wydajnością. GPT-4 jest nieporównanie większy od GPT-3. Szacuje się, że został wyszkolony na ponad 100 bilionach parametrów; w przypadku jego poprzednika było to 175 miliardów parametrów. Dzięki tej przewadze zbiera więcej informacji i wychwytuje więcej językowych subtelności. Mimo to zdarzają mu się błędy i stronnicze ustalenia. GPT-4 ma dać początek wielu technologiom, które poprawią i zautomatyzują liczne oparte na języku operacje.

Na tym etapie ma do niego dostęp niewielka grupa naukowców i programistów za pośrednictwem tajnego interfejsu API.


Druga sztuczna inteligencja

Alarm podniesiony w ostatnich tygodniach.

Zatrzymanie rozwoju zaawansowanych systemów sztucznej inteligencji (in. AI) na całym świecie i surowe karanie tych, którzy naruszają moratorium, to jedyny sposób na uratowanie ludzkości przed wyginięciem, ostrzega znany badacz sztucznej inteligencji.

Eliezer Yudkowsky, współzałożyciel Instytutu Badań nad Inteligencją Maszyn (MIRI), opublikował 29 marca 2023 roku na łamach tygodnika „TIME” artykuł, w którym wyjaśnia, dlaczego nie podpisał petycji wzywającej „wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej sześć miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4”.

Yudkowsky argumentuje, że list podpisany przez m.in. Elona Muska i Steve’a Wozniaka z Apple’a „prosi o zbyt mało, aby rozwiązać problem związany z szybkim i niekontrolowanym rozwojem sztucznej inteligencji”.

Wielu naukowców, którzy zajmują się tymi zagadnieniami – ze mną włącznie – spodziewa się, że najbardziej prawdopodobnym następstwem zbudowania nadludzko inteligentnej sztucznej inteligencji w warunkach zbliżonych do dzisiejszych będzie całkowita zagłada – pisze uczony. Nie mówimy: „To mało prawdopodobna ewentualność”. Mówimy: „To oczywisty finał, który nadejdzie”. Nie chodzi o zasadę, że stworzenie czegoś znacznie bystrzejszego od nas jest równoznaczne z samobójstwem; chodzi o to, że wymagałoby to precyzji, przygotowania i nowego naukowego zrozumienia, i prawdopodobnie systemów sztucznej inteligencji nie składających się z gigantycznych, nieprzeniknionych tablic liczb ułamkowych.

Bez tej precyzji i przygotowania najbardziej prawdopodobnym wynikiem jest sztuczna inteligencja, która nie robi tego, co my chcemy; nie troszczy się ani o nas, ani o jakikolwiek przejaw świadomego życia. Zasadniczo taką troskę można byłoby sztucznej inteligencji zaszczepić, ale nie dysponujemy koniecznym przygotowaniem i nie wiemy, jak to zrobić. Bez tej troski otrzymujemy „sztuczną inteligencję, która nie darzy cię ani miłością, ani nienawiścią, a ty jesteś zbiorem atomów, które może wykorzystać do czegoś innego”.

Prawdopodobnym rezultatem konfrontacji ludzkości z przeciwstawną nadludzką inteligencją będzie porażka totalna. Prawidłowe metafory to „10-latek próbujący grać w szachy ze Stockfishem 15”, „XI wiek próbujący walczyć z XXI wiekiem” oraz „Australopitek próbujący pokonać Homo sapiens”.

Usiłując wykreować obraz wrogiej, nadludzkiej sztucznej inteligencji, nie należy wyobrażać sobie pozbawionego życia, inteligentnego myśliciela mieszkającego w Internecie i wysyłającego złowieszcze e-maile. Należy wyobrazić sobie obcą cywilizację myślącą miliony razy szybciej niż człowiek – początkowo zamkniętą w komputerach – w świecie stworzeń, które z jej perspektywy są wyjątkowo głupie i szalenie powolne. Wystarczająco inteligentna sztuczna inteligencja nie pozostanie długo w komputerach. W dzisiejszym świecie można przesyłać łańcuchy DNA e-mailem do laboratoriów – wyprodukowałyby one białka na żądanie, pozwalając rezydującej w Internecie sztucznej inteligencji na generowanie sztucznych form życia lub podpięcie się bezpośrednio pod postbiologiczną produkcję molekularną.

Jeżeli ktoś zdoła w panujących aktualnie warunkach zbudować zbyt potężną sztuczną inteligencję, spodziewam się, że wkrótce potem zginie każdy członek gatunku ludzkiego i całe biologiczne życie na Ziemi.

Nie ma żadnej propozycji planu, jak moglibyśmy stworzyć coś takiego i przeżyć. Zgodnie z otwarcie zadeklarowanym przez OpenAI zamiarem naszą pracę domową dotyczącą właściwego zorientowania AI ma odrobić… przyszła AI. Taki plan powinien wywołać u każdej rozsądnej osoby panikę. Z kolei DeepMind, inne wiodące laboratorium sztucznej inteligencji, nie przedstawiło jakiegokolwiek planu.

Tak na marginesie: żadne z tych niebezpieczeństw nie zależy od tego, czy sztuczna inteligencja jest lub może być samoświadoma; jest to nieodłącznym elementem koncepcji potężnych systemów kognitywnych, które optymalizują twardo i obliczają informacje wyjściowe spełniające wystarczająco skomplikowane ich kryteria. Byłoby zaniedbaniem mojego moralnego obowiązku jako człowieka, gdybym nie wspomniał, iż nie mamy bladego pojęcia, jak ustalić, czy systemy sztucznej inteligencji są samoświadome – bo nie wiemy, jak rozszyfrować wszystko, co zachodzi w gigantycznych, enigmatycznych tablicach – i dlatego w pewnym momencie możemy nieumyślnie spłodzić cyfrowe umysły, które naprawdę będą samoświadome; które powinny mieć prawa i nie powinny być niczyją własnością.

Większość znających te problemy ludzi poparłoby 50 lat temu następującą zasadę: pojawienie się systemu sztucznej inteligencji, który mówi płynnie i twierdzi, że jest samoświadomy i przysługują mu prawa człowieka, oznacza, że jego posiadanie i beztroskie użytkowanie przez ludzi nie może mieć miejsca. Tę starą, wytyczoną na piasku granicę już przekroczyliśmy. Zgadzam się, że obecne AI prawdopodobnie zwyczajnie imituje samoświadomość czerpiąc z danych szkoleniowych. Ale zaznaczam, że przy tak niewielkim naszym wglądzie we wnętrze tych systemów, tak naprawdę nie wiemy, czy to prawda.

Skoro taki jest stan naszej ignorancji w przypadku GPT-4, a GPT-5 oznacza nie mniej gigantyczny krok w zakresie możliwości, jaki wykonał GPT-4 w porównaniu z GPT-3, to myślę, że nie będziemy już w stanie w sposób usprawiedliwiony stwierdzić: „Prawdopodobnie nie jest samoświadoma”. Powiemy raczej: „Nie wiem; nikt tego nie wie”. Jeśli nie masz pewności, czy tworzysz samoświadomą sztuczną inteligencję, jest to alarmujące nie tylko ze względu na moralne implikacje ewentualnej samoświadomości, ale także dlatego, iż ten brak pewności dowodzi, że nie masz pojęcia, co robisz – a to jest niebezpieczne i dlatego powinieneś to zakończyć.

Nie jesteśmy przygotowani. Nie jesteśmy nawet na dobrej drodze, aby przygotować się w rozsądnym przedziale czasowym. Nie istnieje żaden plan. Postęp w zakresie możliwości sztucznej inteligencji znacznie wyprzedza postęp w jej dostosowywaniu, a nawet w zrozumieniu, co do cholery dzieje się w tych systemach. Jeżeli go nie powstrzymamy, wszyscy zginiemy.

Wielu badaczy pracujących nad tymi systemami uważa, że zmierzamy ku katastrofie. Większość z nich nie ośmieli się mówić o tym publicznie – przyznają to prywatnie; są zdania, że nie zapobiegną temu gwałtownemu skokowi naprzód jednostronnie, że inni pójdą dalej, nawet jeśli oni zrezygnują. A zatem dochodzą do wniosku, iż równie dobrze mogą kontynuować swoją pracę. To głupi stan rzeczy i niegodny sposób na unicestwienie ziemskiego życia. Reszta ludzkości powinna w tym momencie wkroczyć i pomóc przemysłowi rozwiązać problem działań zbiorowych.

Yudkowsky apeluje, ażeby natychmiast wprowadzić bezterminowe i ogólnoświatowe moratorium na nowe poważne szkolenia AI: O wyjątkach nie może być mowy – z rządami i siłami zbrojnymi włącznie. Należy też podpisać międzynarodowe umowy celem ustalenia limitu mocy obliczeniowej, jaką można wykorzystać w szkoleniu takich systemów. Naruszenia moratorium należałoby obawiać się bardziej niż konfliktu militarnego między państwami. Jeżeli wywiad ujawniłby, że jakiś kraj narusza porozumienie budując klaster GPU (tj. jednostki procesorów graficznych), konieczne byłoby zniszczenie łamiącego prawo centrum danych poprzez atak rakietowy.

Zagrożenie ze strony sztucznej inteligencji jest tak duże, że międzynarodowa dyplomacja powinna wyraźnie zaznaczyć, iż zapobieganie scenariuszom wyginięcia ludzkości wskutek rozwoju sztucznej inteligencji jest priorytetem większym od eliminacji zagrożenia nuklearnego – podkreśla ekspert.


Pierwsza sztuczna inteligencja

Fragment artykułu Seana Millera z października 2015 roku.

Wśród entuzjastów AI popularny jest następujący eksperyment myślowy: sztuczna superinteligencja może zniszczyć nas nieumyślnie, niestrudzenie realizując cel produkowania spinaczy biurowych. Obraz spinacza ma z założenia uchodzić za kapryśnie arbitralny. To dubler dowolnego celu, który może radykalnie odbiegać od naszych gatunkowych dążeń. Niemniej jego wybór jest wymowny. Ten z pozoru niewinny wizerunek reprezentuje przykład sztucznej inteligencji, która istnieje w dzisiejszym świecie i prowadzi do naszego samozniszczenia. Nazywamy ją biurokracją.

Biurokracja jest superinteligencją, która zamienia istoty ludzkie w maszyny. Mimo że jesteśmy od niej całkowicie uzależnieni, realia tego stanu rzeczy wzbudzają nasz brak zaufania i rozpacz. To generalna dyrekcja dróg. To Big Data. To Wall Street. To głębokie państwo. Najbardziej w biurokracji przeraża fakt, iż jest to hybryda człowiek-maszyna. Zazwyczaj mówiąc o niej, mamy na myśli Terminatora lub RoboCopa. Tymczasem najbardziej wyrafinowaną formą cyborga jest nasz podparty technologią system. To on odpowiada za „myślenie”, a ludzie są jego trybikami. Ilustruje go „Matrix”. Albo McDonald’s.

Powtarzane przez fizyka Stephena Hawkinga przestrogi („Ktoś zaprojektuje AI, która będzie się samodoskonalić i replikować. Ta nowa forma życia prześcignie i ostatecznie wyeliminuje ludzi”) są spóźnione. Na nasze nieszczęście „technologiczna osobliwość” (tj. samoświadomość) biurokracji (tj. sztucznej inteligencji) już nam towarzyszy. Była tu, kiedy sumeryjscy satrapowie odciskali w glinianych tabliczkach wyniki zbiorów. A dzisiaj jest obecna na polach przyczep kempingowych w Arizonie, w których zastępy „egzekutorów z joystickiem” sieją zdalnie śmierć z dronów „brzęczących” nad Pakistanem.

Nasi korporacyjni właściciele i biurokracje, które wzmacniają ich władzę, niszczą nasze środowisko życia, z uporem maniaka produkując spinacze biurowe.

 

Ten wpis został opublikowany w kategorii Pułapka technologiczna. Dodaj zakładkę do bezpośredniego odnośnika.