Powtórka z upadku starożytności

Fragment recenzji z 5 maja 2023 roku.


W swojej nowej książce pt. „Upadek starożytności: Grecja i Rzym jako oligarchiczny punkt zwrotny cywilizacji” prof. Michael Hudson, ekonomista z Uniwersytetu Missouri-Kansas, opisuje, jak praktyki gospodarcze/finansowe w starożytnej Grecji i Rzymie – filarach cywilizacji zachodniej – przygotowały grunt pod to, co dzieje się obecnie na naszych oczach: postępujący upadek systemowy.

Wspólnym mianownikiem każdego zachodniego systemu finansowego jest zadłużenie, które rośnie nieprzerwanie dzięki procentowi składanemu. Przed Grecją i Rzymem przez prawie 3000 lat cywilizacje w Azji Zachodniej postępowały dokładnie odwrotnie. Tamtejsze królestwa rozumiały wagę anulowania długów: gdyby poddani utracili swoją ziemię na rzecz grupy wierzycieli, ta ostatnia podjęłaby próbę obalenia rządzących.

Arystoteles ujął to zwięźle: W demokracji wierzyciele zaczynają udzielać pożyczek, a dłużnicy nie dają rady z ich spłaceniem; wierzyciele dostają coraz więcej pieniędzy i w końcu zamieniają demokrację w oligarchię; oligarchia staje się dziedziczna i tak rodzi się arystokracja.

Prof. Hudson wyjaśnia, co się dzieje, gdy wierzyciele przejmują kontrolę nad gospodarką: dzisiaj przejawem tego procesu są „oszczędności fiskalne” lub „deflacja długu”. Obecny kryzys bankowy polega na tym, że długi rosną szybciej, niż gospodarka jest w stanie je spłacić. Kiedy Rezerwa Federalna zaczęła w końcu podnosić stopy procentowe, banki pogrążyły się w kryzysie.

Prof. Hudson proponuje również definicję rozszerzoną: Pojawienie się oligarchii finansowych i ziemskich sprawiło, iż przymusowa praca na rzecz wierzyciela i poddaństwo stały się elementem trwałym, wspieranym przez pro-kredytową filozofię prawną i społeczną, która odróżnia cywilizację zachodnią od tego, co było wcześniej. Dziś nosi ona nazwę neoliberalizmu.

Porządek ten utrwalał się przez ponad pięć wieków. Dobiegają nas echa dawnego „brutalnego tłumienia powstań ludowych” i „zabójstw przywódców” dążących do anulowania długów i „redystrybucji ziemi wśród drobnych rolników, którzy stracili ją na rzecz dużych właścicieli ziemskich”. To, co zubożyło ludność Imperium Rzymskiego zostało przekazane współczesnemu światu w zbiorze zasad prawnych napisanych pod dyktando wierzycieli.

Drapieżne oligarchie

Według prof. Hudsona społeczna darwinistyczna filozofia determinizmu ekonomicznego doprowadziła do tego, że nasze wywodzące się z klasycznej starożytności instytucje indywidualizmu i bezpieczeństwa umów kredytowych i majątkowych (faworyzujące roszczenia wierzycieli i prawa czynszobiorców) są przedstawiane jako pozytywny rozwój ewolucyjny, oddalający cywilizację od „orientalnego despotyzmu”. To kolejny mit. Rzeczywistość wyglądała zgoła inaczej: Przez pięć wieków rzymskie oligarchie prowadziły wojny, aby pozbawić ludność wolności, blokując powszechny sprzeciw wobec bezwzględnych praw wierzycieli i monopolizacji ziemi w latyfundiach.

Rzym w rzeczywistości zachowywał się jak „państwo upadłe”: Generałowie, gubernatorzy, poborcy podatkowi, lichwiarze i żebracy dywanowi wydzierali srebro i złoto w formie łupów wojskowych, danin i lichwy z Azji Mniejszej, Grecji i Egiptu. To oparte na pustoszeniu rzymskie podejście jest przedstawiane jako „misja cywilizująca barbarzyńców w stylu francuskim”.

Prof. Hudson pokazuje, w jaki sposób greckie i rzymskie gospodarki zakończyły się „oszczędnościami fiskalnymi” i upadkiem po sprywatyzowaniu kredytów i przejęciu ziemi przez oligarchie rentierskie.

Rzymskie prawo umów ustanowiło fundamentalną zasadę zachodniej filozofii prawnej, dając roszczeniom wierzycieli pierwszeństwo przed własnością dłużników – dzisiaj określa się ją eufemistycznie jako „bezpieczeństwo praw własności” – pisze prof. Hudson. Wydatki publiczne na opiekę społeczną zostały zminimalizowane – dzisiejsza ideologia polityczna nazywa to pozostawieniem spraw „rynkowi”. To rynek utrzymywał stan, w którym zaspokojenie podstawowych potrzeb obywateli Rzymu i jego imperium było zależne od bogatych patronów i lichwiarzy – za chleb płacił zasiłek państwowy, a za igrzyska kandydaci polityczni, którzy często pożyczali od bogatych oligarchów, aby sfinansować swoje kampanie. Dzisiejszy Zachód podąża za tymi pro-rentierskimi ideami, polityką i zasadami.

Autor zwraca uwagę, że rzymscy historycy – między innymi Liwiusz, Salustiusz, Appian, Plutarch i Dionizjusz z Halikarnasu – akcentowali podporządkowanie obywateli niewoli zadłużenia. Nawet grecka wyrocznia delficka, a także poeci i filozofowie ostrzegali przed chciwością wierzycieli. Sokrates i stoicy alarmowali, że uzależnienie od bogactwa i związana z nim miłość do pieniędzy stanowi główne zagrożenie dla harmonii społecznej, a tym samym dla społeczeństwa.

Krytyka ta została całkowicie usunięta z zachodniej historiografii. Jak zauważa prof. Hudson: Nieliczni badacze podążają za rzymskimi historykami opisującymi, jak zmagania dotyczące zadłużenia i grabieży ziemi odpowiadały za upadek Republiki w stopniu największym. Rzym został osłabiony od wewnątrz przez stulecia oligarchicznych ekscesów.

Oddajmy głos Plutarchowi: Chciwość nie przynosi wierzycielom ani przyjemności, ani zysku i rujnuje ofiary. Wierzyciele nie uprawiają pól zabranych swoim dłużnikom, ani nie mieszkają w ich domach po eksmisji.

Zignorowana pleoneksja

Wynalazek zadłużenia i odsetek przywędrował w rejon Morza Egejskiego i Śródziemnego około VIII wieku p.n.e. wraz z handlarzami z Syrii i Lewantu. Ale greccy i włoscy wodzowie, watażkowie i ci, których wybrani klasycy [z Europy Północnej] nazywali mafiosami, nie mieli tradycji anulowania długów i redystrybucji ziemi, które ograniczały osobistą chęć gromadzenia bogactwa – narzucili więc swoim poddanym prawo własności ziemi – przypomina prof. Hudson.

Ta polaryzacja ekonomiczna stale się pogarszała. Solon anulował długi w Atenach pod koniec VI wieku, ale nie przeprowadził redystrybucji ziemi. Rezerwy monetarne Aten pochodziły głównie z kopalni srebra – dzięki nim zbudowano flotę, która pokonała Persów pod Salaminą. Perykles mógł wzmocnić demokrację, lecz klęska w wojnie peloponeskiej (431-404 p.n.e.) utorowała drogę oligarchii uzależnionej od zadłużania.

Platon i Arystoteles ujęli cały problem w kontekście pleoneksji („uzależnienie od bogactwa”), która nieuchronnie prowadzi do drapieżnych i „szkodliwych społecznie” praktyk. W Republice Platona Sokrates proponował, aby do rządzenia społeczeństwem wyznaczać wyłącznie ludzi niezamożnych – nie będących zakładnikami pychy i chciwości.

Problem z Rzymem polega na tym, iż nie zachowały się żadne spisane ówcześnie narracje. Historie standardowe powstały dopiero po upadku Republiki. Druga wojna punicka z Kartaginą (218-201 p.n.e.) jest szczególnie intrygująca ze względu na jej aktualny wydźwięk: kontrahenci wojskowi zaangażowali się w oszustwa na dużą skalę i zaciekle torpedowali dochodzenia senackie.

Prof. Hudson uświadamia, że stało się to również okazją do obdarowania najbogatszych rodzin ziemią publiczną; państwo rzymskie traktowało ich pozornie patriotyczne darowizny wojenne w postaci biżuterii i pieniędzy jako retroaktywne długi publiczne, które podlegają spłacie. W ślad za pokonaniem Kartaginy bogacze rzymscy chcieli odzyskać swoje precjoza. Jedynym aktywem, jaki pozostał państwu, była ziemia w Kampanii, na południe od stolicy. Zamożne rodziny skutecznie lobbowały w Senacie i zagarnęły całość.

Jeżeli chodzi o uczciwe traktowanie, ostatnią szansą dla klasy robotniczej był Cezar. W pierwszej połowie I wieku p.n.e. sponsorował prawo upadłościowe – umorzył zadłużenie. Niestety, do powszechnego anulowania długów nie doszło. Senaccy oligarchowie postanowili „unieszkodliwić” władcę, bo obawiali się, że wykorzysta swoją popularność do zapewnienia sobie władzy królewskiej i przeprowadzenia jeszcze bardziej popularnych reform.

Po triumfie Oktawiana i nadaniu mu imienia Augusta i tytułu princeps senatus w 27 roku p.n.e. Senat przeobraził się w ceremonialną elitę. Prof. Hudson podsumowuje to jednym zdaniem: Imperium zachodnie rozpadło się, gdy nie pozostał do zawłaszczenia żaden skrawek ziemi i sakwa monetarnego kruszcu.

W styczniu 2023 roku agencja ratingowa S&P ostrzegła, że światu grozi katastrofa, ponieważ rośnie zadłużenie rządów, gospodarstw domowych i instytucji finansowych. Trend gwarantuje, iż w ciągu najbliższych lat dług cywilizacji przemysłowej, który przekroczył 300 bilionów dolarów, osiągnie poziom 366% globalnego PKB.

Opublikowano Gospodarka, finanse, surowce i energia | Dodaj komentarz

Anatomia superkrachu

Analiza Tima Morgana z 13 marca 2023 roku.


Wstęp

Nawet najbardziej pobieżna analiza historii gospodarczej i finansowej świata ujawnia całą litanię baniek i boomów, krachów i kryzysów. W przeszłości byliśmy świadkami licznych przypadków manii spekulacyjnych, baniek na rynku nieruchomości, załamań rynkowych i kryzysów bankowych. Nawet bańka internetowa z lat 1995-2000 nie była tak naprawdę „pierwsza”, ponieważ istnieje co najmniej jeden wcześniejszy przypadek – mania kolejowa z lat 40. XIX wieku – kiedy to uwodzicielski blask najnowszej mody technologicznej sprawił, że społeczeństwo stało się ślepe na panujące realia.

Nie oznacza to jednak, że „nie ma nic nowego pod słońcem” w tym, czego doświadczamy obecnie. Nadchodzący superkrach – dla którego najlepszym skrótowym określeniem może być „kryzys wszystkiego” – ustanawia nowe precedensy na co najmniej dwa sposoby.

Po pierwsze, niezwykłe jest to, iż różne kryzysy finansowe rozgrywają w tym samym czasie. Nawet globalny kryzys finansowy (GFC) z lat 2008-09 nie był „kryzysem wszystkiego”. Wiele wskazuje na to, iż obserwujemy kryzys połączony: giełdowy, nieruchomości, bankowy, finansowy, gospodarczy i technologiczny. „Wszystko dzieje się jednocześnie”. Po drugie, wszystkie poprzednie kryzysy miały miejsce w czasach, gdy sekularny (niecykliczny) wzrost gospodarczy był możliwy. Właśnie on pozwalał gospodarce globalnej z nich „wyrosnąć”, podobnie jak młodzież „wyrasta” z dolegliwości wieku dziecięcego. Dzisiaj takiej możliwości nie ma.

Prawdziwa opowieść o współczesnej historii gospodarczej i finansowej wiąże się z jednej strony z zakończeniem i odwróceniem stuleci ekspansji gospodarczej, z drugiej zaś z absolutną odmową pogodzenia się z tą rzeczywistością.

Poniżej podejmę próbę opowiedzenia tej historii w możliwie najkrótszy sposób.

Wszystko zaczyna się tutaj

Pierwsza z dwóch głównych składowych rzeczywistości naszej ponurej sytuacji: ogromna i złożona nowoczesna gospodarka globalna została zbudowana dzięki eksploatacji obfitej i taniej energii z ropy naftowej, gazu ziemnego i węgla. W naturalny sposób w pierwszej kolejności uzyskaliśmy dostęp do źródeł najtańszych, pozostawiając droższe alternatywy na „później”. „Później” właśnie nadeszło. Terminem opisującym ten proces jest „wyczerpanie”, które dotyczy też samej gospodarki.

Nie chodzi o to, że dane zasoby „kończą się”, ale że ich podaż staje się coraz droższa. Istotnym miernikiem nie jest tutaj koszt finansowy – bo zawsze można „wydrukować” nowe pieniądze – ale koszt energetyczny: część wartości energetycznej zużywanej w procesie pozyskiwania energii, której nie można wykorzystać do żadnego innego celu gospodarczego. Wskaźnik ten określam mianem energetycznego kosztu energii (ECoE).

Globalny ECoE (ze wszystkich źródeł energii pierwotnej) wzrósł z 2,0% w 1980 roku do prawie 10% w 2023 roku. Trend przyspiesza. Oznacza to, że z każdych 100 jednostek dostępnej energii nadwyżka zmniejszyła się z 98 w 1980 roku do 90 w 2023 roku. I ciągle spada.

Należy pamiętać, że nadwyżki energii są wykorzystywane nie tylko do dostarczania produktów i usług konsumentom, lecz także do utrzymania i wymiany infrastruktury produkcyjnej i socjalnej. A zatem wrażliwość na rosnący ECoE jest odwrotną funkcją złożoności – im bardziej złożona jest gospodarka, tym większa nadwyżka energii jest niezbędna do utrzymania systemu.

Złożoność jest najwyższa w rozwiniętych gospodarkach Zachodu. Wcześniejszy wzrost gospodarczy najpierw uległ w nich odwróceniu, co nastąpiło, gdy ECoE osiągnął na początku XXI wieku ∼5%. Gospodarki rynków wschodzących były w stanie kontynuować wzrost przy ECoE przekraczającym 5% dzięki swojej mniejszej złożoności. Większość tych krajów również weszło w okres gospodarczego klimakterium przy poziomie ECoE wynoszącym ∼10%.

W konsekwencji globalny dobrobyt na mieszkańca uzyskał swój maksymalny poziom w 2019 roku, a wstępne dane potwierdzają, iż globalny dobrobyt zbiorczy mógł osiągnąć swój szczyt w 2022 roku.

Kompresja przystępności cenowej” i dźwignia artykułów pierwszej potrzeby

Każda osoba lub rodzina, której zasoby ekonomiczne ulegają uszczupleniu, stawia czoła dwóm najważniejszym wyzwaniom. Po pierwsze, musi przeznaczać coraz większą część malejących dochodów na artykuły pierwszej potrzeby, wydając coraz mniej na zakupy uznaniowe (zbędne). Po drugie, coraz trudniej jest spłacać długi i inne zobowiązania finansowe zaciągnięte w czasach względnego dostatku.

Oba procesy mają swoje odpowiedniki na poziomie makroekonomicznym; każdy z nich ma swój wyróżnik. Po pierwsze, rodzina doświadczająca spadku dochodów zwykle nie boryka się z jednoczesnym wzrostem kosztów artykułów pierwszej potrzeby, ale właśnie to dzieje się aktualnie w gospodarce, ponieważ wyprodukowanie wielu z tych artykułów wymaga mnóstwa energii. Po drugie, podczas gdy jednostki i gospodarstwa domowe nie mogą wyczarować nowych pieniędzy z niczego, osoby zarządzające gospodarką właśnie to robią; oczywiście wyczarowując pieniądze, nie tworzą ekonomicznej wartości.

Terminem zbiorczym opisującym ten proces jest kompresja przystępności cenowej. Oto jej składowe:

→ Dobrobyt pogarsza się, ponieważ ECoE idzie w górę.
→ Koszty artykułów pierwszej potrzeby rosną, ponieważ wiele z nich jest energochłonnych.
→ Gospodarka doświadcza nieustannej presji spadkowej, która ogranicza zdolność do nabywania uznaniowych produktów i usług.
→ Wcześniejsze zobowiązania finansowe okazują się coraz trudniejsze do spłacenia.

Wielka głupota

Nic z powyższego opisu nie jest nowością. W latach 1990-2000 globalny trend ECoE wzrósł z 2,9% do 4,2% – wartość bliską 5% „punktowi przegięcia” dla złożonych gospodarek Zachodu. Praktyczną konsekwencją tego trendu była rodząca się w latach 90. świadomość „sekularnej stagnacji”, czyli niecyklicznej redukcji tempa wzrostu.

Inteligentni ludzie zareagowaliby na to zjawisko, badając je i podejmując odpowiednie kroki. Koncepcja gospodarki jako systemu energetycznego, a nie finansowego, pojawiła się znacznie wcześniej, a niezwykle prorocze, opublikowane w 1972 roku „Granice wzrostu” ostrzegły przed tym, czego możemy się spodziewać.

Nie trzeba dodawać, że inteligentne dochodzenie i przemyślana reakcja nie były tym, co wydarzyło się w latach 90., kiedy rozpoczęło się intensywne potęgowanie naszych dzisiejszych problemów. Zwolennicy ekonomii ortodoksyjnej zaprzeczali, że jest się czym martwić, ponieważ zgodnie z najbardziej pielęgnowanymi przez nich zasadami nie ma powodu, dla którego wzrost gospodarczy miałby się kiedykolwiek skończyć. Szerszy pogląd był taki, że autorzy „Granic wzrostu” mylili się – nie dlatego, że wykorzystane przez nich techniki były wadliwe, ale dlatego, że uzyskane dzięki nim wyniki były… niemile widziane.

Podstawowym błędem konwencjonalnej ekonomii jest założenie, iż gospodarka jest w całości systemem finansowym bez materialnych granic i dlatego może zapewnić „niekończący się wzrost na planecie, której zasoby są ograniczone”. Częścią tego szaleństwa jest przekonanie, że „liberalny” proces deregulacji pobudza „wzrost” – mit, który stał się szczególnie modny po rozpadzie ZSRR.

W związku z tym preferowaną reakcją na „sekularną stagnację” było ułatwienie zaciągania pożyczek państwowych, korporacyjnych i indywidualnych na niespotykaną w historii współczesnej skalę. Jeśli globalizacja miała z powodzeniem wyeksportować proces produkcji do krajów o niższych kosztach i jednocześnie zwiększyć konsumpcję na Zachodzie, należało ułatwić mieszkańcom „pierwszego świata” prowadzenie życia na kredyt.

Procesy te doprowadziły bezpośrednio do globalnego kryzysu finansowego – następstwa lekkomyślnego generowania kredytu i niedociągnięć w nadzorze makroostrożnościowym.

Nowy modelowy idiotyzm

W odpowiedzi na GFC zaczęto pompować w system tanie pieniądze. Można było to przewidzieć. Wystarczyło w 2008 roku dodać światowe długi, a następnie użyć normalnej stopy procentowej, aby obliczyć łączny koszt obsługi zadłużenia. Uzyskanym wynikiem byłaby kwota, na którą nas nie stać. To dlatego „tymczasowe” rozwiązania takie jak QE (luzowanie ilościowe), ZIRP (zerowe stopy procentowe) i NIRP (ujemne stopy procentowe) są już stałymi elementami systemu.

Dopuszczalnym uproszczeniem jest stwierdzenie, iż ogólny poziom cen aktywów jest odwrotnością kosztu pieniądza. Im taniej i obficiej udostępniany jest kapitał, tym bardziej zwyżkują ceny akcji, obligacji, nieruchomości i innych aktywów.

Szkopuł w tym, że zagregowane ceny aktywów są bez znaczenia, ponieważ tych wycen nie można zamienić na pieniądze. W górę poszybowały zarówno ceny aktywów, jak i zadłużenie i quasi-zadłużenie. Nie możemy sprzedać całej giełdy – niby komu? – aby spłacić długi, które zostały zaciągnięte w celu zwiększenia giełdowych notowań. Stosowanie krańcowych cen transakcyjnych do ustalania „wartości” jednostek zagregowanych jest błędem, który przekonuje tylko tych, którzy chcą dać się przekonać.

Wszystko to sprawiło, że z jednej strony żywimy nadzieję, że „coś się pojawi”, a z drugiej obawiamy się, czym to „coś” może się okazać. Skrobiemy dno beczki: pokładamy wiarę w energię „odnawialną”, która jest znacznie mniej gęsta od kopalnej, lub w technologię, która ma przezwyciężyć prawa fizyki. Zaczynamy konfrontować się z faktem, iż wyczarowywanie pieniędzy z niczego jest inflacyjne – ignorowaliśmy go, wmawiając sobie, że wzrost cen aktywów „nie liczy się jako inflacja”.

Teraz najprawdopodobniej pęknie „bańka wszystkiego”, co wywoła „kryzys wszystkiego”. Nawet niezabezpieczony dług w ostatecznym rozrachunku jest zabezpieczony psychologicznym założeniem, że gospodarka będzie rosła w tempie pozwalającym na wywiązanie się z naszych zbiorowych zobowiązań.

Nie zdołamy „wyrosnąć” z „kryzysu wszystkiego”, bo wcześniejsza ekspansja gospodarcza uległa odwróceniu. Choć zrozumienie tego zdarzenia nie jest trudne, to pogodzenie się z jego konsekwencjami z pewnością tak.

„Krach na Wall Street [1929]” Clive’a Nortona. „Tym razem poprawy nie będzie”.

Opublikowano Gospodarka, finanse, surowce i energia | Dodaj komentarz

Żałoba na orbicie

Kosmos, ostateczna granica…” — fraza z serialu „Star Trek”


W październiku 2022 roku William Shatner, odtwórca roli kapitana Jamesa T. Kirka w serialu „Star Trek”, spędził 11 minut na orbicie okołoziemskiej jako członek załogi rakiety New Shepard. Poniżej – fragment wspomnienia.

Uzyskaliśmy zgodę na start i rozpoczęło się odliczanie. Przy wtórze hałasu, w towarzystwie ognia i furii wzbiliśmy się w powietrze. Widziałem znikającą Ziemię. Gdy się wznieśliśmy, natychmiast dało o sobie znać ciśnienie. Targały mną siły grawitacyjne. Jeden z instrumentów podawał nam wartość g. Przy dwóch g z trudem podniosłem rękę. Przy trzech g moja twarz została wciśnięta w fotel. Nie wiem, ile jeszcze zniosę – pomyślałem. Czy zemdleję? Czy twarz zamieni się w papkę? Ile g wytrzyma moje 90-letnie ciało?

A potem nagła ulga. Żadnych g. Zero. Uwolniliśmy się z pasów bezpieczeństwa i zaczęliśmy się unosić. Inni od razu przystąpili do robienia salt, cieszyli się efektami stanu nieważkości. Nie miałem ochoty brać w tym udziału. Chciałem, potrzebowałem jak najszybciej dostać się do okna. Kiedy przez nie wyjrzałem, w dole dostrzegłem dziurę, którą nasz statek kosmiczny wybił w cienkiej, zabarwionej na niebiesko warstwie ziemskiego tlenu. Pozostawiliśmy za sobą swoisty kilwater i kiedy tylko go zauważyłem, zniknął.

Kontynuowałem samodzielną wycieczkę i odwróciłem głowę w przeciwnym kierunku, aby spojrzeć w przestrzeń kosmosu. Uwielbiam tajemniczość wszechświata. Uwielbiam wszystkie pytania, które nasuwały się nam przez tysiące lat poszukiwań i hipotez. Eksplodujące gwiazdy, ich światło docierające do nas po upływie eonów; czarne dziury pochłaniające energię; satelity pokazujące nam galaktyki w obszarach, które uważano za całkowicie pozbawione materii… wszystko to od lat budziło mój zachwyt… ale kiedy zwróciłem wzrok w przeciwnym kierunku, w kosmos, nie było tam żadnej tajemnicy, żadnego majestatycznego zachwytu… widziałem tylko jedno – śmierć.

Patrzyłem w zimną, ciemną pustkę. Czerń nie kojarzyła się z niczym, co można zobaczyć lub poczuć na Ziemi. Była tak głęboka, spowijająca i wszechogarniająca. Odwróciłem się w stronę światła domu. Zobaczyłem krzywiznę Ziemi, beż pustyni, biel chmur i błękit nieba. Zobaczyłem życie. To, co żywi, pielęgnuje. Matkę Ziemię. Gaję. A ja ją opuszczałem. Wszystkie moje założenia były błędne. Wszystkie oczekiwania związane z tym, co miałem zobaczyć, były chybione. Sądziłem, że pobyt na orbicie przyniesie poszukiwane przeze mnie ostateczne katharsis, będzie kolejnym pięknym krokiem ku zrozumieniu harmonii wszechświata – łączności między wszystkim, co żyje.

Tymczasem nawiedziło mnie jedno z najsilniejszych uczuć żałoby. Kontrast między okrutnym zimnem kosmosu a opiekuńczym ciepłem Ziemi wlał we mnie bezbrzeżny smutek. Każdego dnia jesteśmy konfrontowani z faktami na temat zniszczenia, jakiego z naszych rąk doświadcza Ziemia: wymieraniem gatunków zwierząt, flory i fauny… istot, które po pięciu miliardach lat ewolucji znikają wskutek ingerencji ludzkości. Napełniło mnie to przerażeniem. Moja podróż w kosmos miała być świętem; zamiast tego przypominała pogrzeb.

— William Shatner, „Variety”, 6 października 2022 roku

„Po powrocie na Ziemię nie mogłem przestać płakać przez kilka godzin”.

Opublikowano Poza nadzieją | Dodaj komentarz

Szokujące przyspieszenie ocieplenia Wszechoceanu Ziemi

Ocieplenie w ostatnich dekadach

Naukowcy są tak zaniepokojeni wynikami nowego badania dotyczącego ocieplenia Wszechoceanu, że nie chcą oficjalnie ich komentować. Jeden z nich powiedział, że jest „bardzo zmartwiony i całkowicie zestresowany”donosi reporter BBC.

Analiza opublikowana 17 kwietnia 2023 roku w Earth System Science Data ostrzega, że ziemskie oceany stają się cieplejsze znacznie szybciej, niż spodziewali się tego eksperci. Spotęguje to ekstremalne warunki pogodowe, przyspieszy utratę ekosystemów morskich i wzrost poziomu morza.

Przez ostatnich 15 lat planeta zgromadziła tyle ciepła, co w poprzedzających 45 latach. Badacze z Międzynarodowego Systemu Analizy Oceanu Mercator we Francji, Instytutu Oceanografii Scrippsów w Stanach Zjednoczonych i Królewskiego Instytutu Badań Morza w Holandii odkryli, że 89% tego nadmiaru pochłonął Wszechocean; ląd – 5%, atmosfera – 2%, a 4% topi kriosferę.

Spis ciepła planety dla dodatniego bilansu energetycznego Ziemi (EEI) w górnej części atmosfery (TOA), którego przyczyną jest cywilizacja przemysłowa. Względny podział (w %) ciepła planety na składowe obejmuje ocean [górny: 0–700 m, pośredni: 700–2000 m, głęboki: >2000 m], ląd, kriosferę (lód naziemny i dryfujący), atmosferę oraz EEI dla 2006-2020 i 1971-2020 (w przypadku ostatniego okresu wartości podano w nawiasach). Całkowity przyrost ciepła (oznaczony na czerwono) w 1971-2020 pochodzi ze spisu ciepła Ziemi.

Od końca XIX wieku średnia temperatura powierzchni oceanów została podniesiona o 0,9°C, przy czym skok o 0,6°C miał miejsce w ciągu minionych czterech dekad. Za część ocieplenia odpowiada gwałtowne obniżenie poziomu zanieczyszczenia atmosfery związanego z żeglugą – w 2020 roku Międzynarodowa Organizacja Morska wprowadziła nowe przepisy paliwowe, które zredukowały ilość aerozoli emitowanych przez statki.

Rozgrzany przez cywilizację przemysłową Wszechocean traci siedliska i rozmraża lodowce, co z kolei osłabia prądy oceaniczne przenoszące ciepło i podtrzymujące globalny łańcuch pokarmowy. Zwiększa się zakwaszenie oceanicznych wód, rozszerzalność termiczna podnosi poziom morza, nasilają się huragany i burze tropikalne.

Uczeni są przestraszeni, że w konsekwencji obserwowanego gwałtownego ocieplenia zdolność oceanów do magazynowania nadmiaru zakumulowanej w atmosferze energii zostanie osłabiona i ziemski ląd utraci swoją najważniejszą ochronę przed najgorszymi skutkami zmiany klimatu.

Ocieplenie w ostatnich tygodniach i El Niño

Na powierzchni ocieplającego się głębokiego oceanu przez trzy ubiegłe lata utrzymywała się chłodna oscylacja południowa La Niña, która działała jak pokrywka na garnku. I nawet ona była najgorętsza w dziejach meteorologii. Teraz zostanie zdjęta i globalne ocieplenie przyspieszy jeszcze bardziej. Większość modeli prognostycznych klimatu pokazuje, że do lipca powróci po czteroletniej nieobecności największy gracz w systemie klimatycznym – silna oscylacja południowa El Niñopisze Dillon Amaya, klimatolog z Narodowej Służby Oceanicznej i Atmosferycznej (NOAA). W jej trakcie pas wody rozciągający się na 10 000 kilometrów na zachód od wybrzeży Ekwadoru nagrzewa się przez wiele miesięcy o 1-2°C. Ta pozornie niewielka wartość wystarczy, aby całkowicie zreorganizować wzorce wiatrów, opadów i temperatur na całej planecie.

Ludzie w zrozumiały sposób skupiają się na lądowych konsekwencjach zjawiska – kontynuuje Amaya. Ciepła woda wywiera dramatyczny wpływ na prądy powietrza czyniące dane obszary bardziej wilgotnymi lub suchymi niż zwykle. Jednak El Niño sieje spustoszenie także pod wodą – przynosi trwające przez wiele miesięcy fale intensywnych upałów przypowierzchniowych i głębinowych, które wyniszczają ekosystemy mające kluczowe znaczenie dla przetrwania społeczności ludzkich (m.in. rafy koralowe i łąki trawy morskiej).

W kwietniu temperatury oceanów spadają. W 2023 roku było inaczej: Wszechocean miał rekordową temperaturę. Zdaniem ekspertów ta kolejna „szokująca” i „bezprecedensowa” anomalia dowodzi, iż zmiana klimatu wprowadziła Ziemię na „niezbadany obszar”. Nagłe ocieplenie nie wygląda na spowodowane przez El Niñomówi Gregory C. Johnson, oceanograf NOAA. Kilka podmorskich fal upałów i obszarów intensywnego ciepła nie pokrywa się z wzorcem El Niño. Przykładem jest chociażby północny Pacyfik w pobliżu Alaski i u wybrzeży Hiszpanii. Gabe Vecchi, klimatolog z Uniwersytetu Princeton, potwierdza: Obserwujemy niezwykły wzorzec. To ekstremalne wydarzenie na skalę globalną obejmujące obszary, które nie pasują do zwykłego El Niño. Sygnał jest naprawdę potężny.

Sarah Purkey, oceanograf z Instytutu Oceanografii Scrippsów, zauważa: Od ostatniego El Niño zawartość ciepła w oceanie wzrosła o 0,04°C. Ten pozornie niewielki wynik w rzeczywistości oznacza ogromną ilość energii. Mówimy o 30-40 zettadżuli ciepła, co równa się energii setek milionów bomb atomowych o indywidualnej mocy, która wystarczyła, aby zrównać z ziemią Hiroszimę. W nadchodzących miesiącach i latach morską toń dodatkowo ogrzeje system El Niño.

Opublikowano Klimat | Dodaj komentarz

Gwałtowny wzrost zawartości ciepła we Wszechoceanie Ziemi

Globalne ocieplenie jest w rzeczywistości ociepleniem oceanów. Dr Lijing Cheng [Instytut Fizyki Atmosfery Chińskiej Akademii Nauk]


Zawartość ciepła oceanicznego (OHC) to najważniejszy miernik nagłej zmiany klimatu.

Gromadzące się w atmosferze w szybkim tempie gazy cieplarniane (GHG) sprawiają, że ciepło emitowane z powierzchni Ziemi nie ucieka w przestrzeń kosmiczną tak swobodnie, jak kiedyś. Większość nadmiaru ciepła atmosferycznego trafia z powrotem do Wszechoceanu. W rezultacie w ostatnich dekadach nastąpił gwałtowny wzrost zawartości ciepła w górnych jego warstwach. Ponad 90% ocieplenia, jakiego doświadczyła Ziemia w ciągu minionych 50 lat, miało miejsce w oceanach.

Ciepło pochłonięte przez Wszechocean nie znika – jest przenoszone z jednego miejsca w drugie. Energia cieplna ostatecznie trafia do reszty systemu ziemskiego poprzez topienie lodowców szelfowych, odparowanie wody lub bezpośrednie ogrzanie atmosfery. A zatem będzie ona podnosić planetarną gorączkę przez długi czas nawet po zatrzymaniu cywilizacyjnych emisji GHG.

Uśredniony dla powierzchni Ziemi współczynnik przyrostu ciepła Wszechoceanu na całej jego głębokości w latach 1993-2021 waha się od 0,64 do 0,80 W m−2. Wynik – mniej niż wat na metr kwadratowy – wygląda na zmianę niewielką, ale pomnożony przez powierzchnię Wszechoceanu (ponad 360 milionów kilometrów kwadratowych), przekłada się na ogromną globalną nierównowagę energetyczną. Oznacza to, że zmagazynowane już w oceanach ciepło zostanie uwolnione i znacznie spotęguje ocieplenie Ziemi.


W dniu 20 kwietnia 2023 roku powierzchnia morza pomiędzy 60°S a 60°N miała 21°C. Taka minimalna wartość utrzymywała się przez 32 dni. Jest to wydarzenie bezprecedensowe w historii pomiarów Narodowej Służby Oceanicznej i Atmosferycznej (NOAA), która sięga 1981 roku.

Sytuacja jest szczególnie dramatyczna na Północnym Atlantyku. Ogromne ilości tamtejszego ciepła przemieszczają się w kierunku Arktyki, co przyspieszy topnienie lodu morskiego i wiecznej zmarzliny. W ubiegłym roku temperatura powierzchni mórz północnoatlantyckich osiągnęła na początku września rekordowy poziom 24,9°C (kolor pomarańczowy). W dniu 20 kwietnia br. była wyższa aż o 0,5°C (kolor czarny).

Nadchodzi El Niño. We wschodniej części strefy równikowej anomalia Niño1+2 SST zbliża się już do +3°C – takie ciepło towarzyszyło w ostatnich dekadach najintensywniejszym epizodom El Niño. W ujęciu miesięcznym Niño1+2 przekraczał +2,5°C w latach 1982-83, 1997-98 i lipcu 2015 roku. Można założyć, iż w najbliższych sezonach Ocean Arktyczny będzie odbierał coraz więcej ciepła – tj. więcej ciepła ze światła słonecznego, więcej ciepła z rzek, więcej ciepła z fal upałów oraz więcej ciepła z Oceanu Atlantyckiego i Oceanu Spokojnego. Już teraz różnica temperatur na Ziemi (Ląd+Wszechocean) między listopadem 2022 roku a marcem 2023 roku wynosi +0,5°C.

Opublikowano Klimat | Dodaj komentarz

Gwałtowny wzrost tempa topnienia lądolodów Ziemi

Międzynarodowe badanie wykazało, że Grenlandia i Antarktyda tracą obecnie ponad trzy razy więcej lodu rocznie niż 30 lat temu. Korzystając z 50 różnych szacunków satelitarnych, uczeni ustalili, iż od kilku lat mamy do czynienia z „hiperprzyspieszeniem” topnienia Grenlandii. W 2017-2020 było ono o 20% większe niż na początku dekady i ponad siedmiokrotnie większe niż na początku lat 90. Takie wartości rozrywają na strzępy najczarniejsze oficjalne scenariusze globalnego ocieplenia.

Nowe dane są naprawdę katastrofalneprzyznaje Ruth Mottram, klimatolog z Duńskiego Instytutu Meteorologicznego. Główna autorka analizy Ines Otosaka, glacjolog z Uniwersystetu Leeds w Wielkiej Brytanii, stwierdza oczywisty fakt, iż przyczyną obserwowanego trendu jest nagła zmiana klimatu spowodowana przez cywilizację przemysłową.

W 1992-1996 dwa lądolody zawierające 99% światowego lodu słodkowodnego kurczyły się w tempie 116 miliardów ton (105 miliardów ton metrycznych) rocznie; dwie trzecie utraty odnotowano na Antarktydzie. W 2017-2020 zanikanie lądolodów wzrosło do 410 miliardów ton (372 miliardów ton metrycznych) rocznie; ponad dwie trzecie utraty odnotowano na Grenlandii.

To niszczycielska trajektoria – ostrzega Twila Moon, zastępca głównego naukowca Narodowego Centrum Danych Śniegu i Lodu (NSIDC) w USA. Wynik jest nie tyle zaskakujący, co niepokojący – pisze Waleed Abdalati, badacz lodu z Uniwersytetu Colorado i były główny naukowiec NASA. Kilka dekad temu zakładano, że te rozległe rezerwuary lodu przeobrażają się powoli, ale dzięki obserwacjom satelitarnym i terenowym, a także najnowszym technikom modelowania dowiedzieliśmy się, iż lód reaguje na zmieniający się klimat bardzo szybko. [Earth System Science Data, 20.04.2023 r.]

Opublikowano Klimat | Dodaj komentarz

Gwałtowny wzrost zawartości ciepła w atmosferze Ziemi

Dane udostępnione 18 kwietnia 2023 roku przez badacza klimatu Leona Simonsa.

Ilość ciepła pochłanianego przez atmosferę Ziemi rośnie gwałtownie. W latach 1961-2000 trend wynosił 0,53 ZJ (5,3*10^20 dżuli) na dekadę. W latach 2006-2020 wartość ta wystrzeliła do 2,29 ZJ na dekadę. Obecnie w atmosferze gromadzi się ∼4 razy więcej ciepła niż 20 lat temu.

Opublikowano Klimat | Dodaj komentarz

Druga sztuczna inteligencja

Fragment artykułu „MIT Technology Review” z kwietnia 2017 roku.

Maszyna–samouk

Od samego początku „przygody” z programowaniem tzw. inteligentnych maszyn istniały dwie szkoły. Część wynalazców chciała budować maszyny rozumujące zgodnie z zasadami i logiką. Inni byli zdania, że inteligencja maszyn pojawi się łatwiej, jeśli będą one czerpać inspirację z biologii i uczyć się poprzez obserwację i doświadczanie. Oznaczało to postawienie programowania komputerowego na głowie. Zamiast programisty piszącego polecenia mające pomóc w rozwiązaniu problemu, program generuje własny algorytm na podstawie danych przykładowych i pożądanego wyniku. Techniki uczenia maszynowego, które ewoluując stały się najpotężniejszymi znanymi dzisiaj systemami sztucznej inteligencji, podążały tą drugą drogą: dzisiaj maszyna zasadniczo programuje sama siebie.

Początkowo podejście to miało ograniczone zastosowanie praktyczne. Zainteresowanie nim powróciło ze względu na komputeryzację wielu gałęzi przemysłu i pojawienie się dużych zbiorów danych. Zainspirowało to naukowców, aby rozwijać potężniejsze techniki uczenia maszynowego, a w szczególności nowe wersje jednej z nich: sztucznej sieci neuronowej. W latach 90. sieci neuronowe potrafiły już automatycznie digitalizować znaki pisane ręcznie, ale dopiero na początku minionej dekady, po kilku zmyślnych poprawkach i udoskonaleniach, te bardzo rozległe – in. „głębokie” – sieci odnotowały radykalną poprawę w zakresie percepcji automatycznej.

Nieprzenikniona „czarna skrzynka”

W 2016 roku na spokojne drogi hrabstwa Monmouth w stanie New Jersey wtoczyło się eksperymentalne samojezdne auto opracowane przez naukowców z Nvidii. Wyglądem nie różniło się od innych autonomicznych pojazdów, ale nie przypominało niczego, co wcześniej stworzyła korporacja Google, Tesla czy General Motors. Samochód nie reagował na instrukcje inżyniera lub programisty. Polegał całkowicie na algorytmie, który sam nauczył się prowadzić – obserwował, jak robi to człowiek.

Było to przełomowe zastosowanie uczenia głębokiego (ang. deep-learning) – podstawowej, najbardziej powszedniej obecnie technologii, która odpowiada za eksplozję sztucznej inteligencji. Wykorzystują ją chociażby aplikacje i strony internetowe, aby wyświetlać reklamy lub rekomendacje filmów i utworów muzycznych. Komputery dostarczające tych usług zaprogramowały się samodzielnie i zrobiły to w sposób, którego inżynierowie nie rozumieją.

Uczenie głębokie jest wykorzystywane do podejmowania wszelkiego rodzaju kluczowych decyzji w medycynie, wojskowości, finansach, produkcji i innych. Ze swojej natury jest ono nieprzeniknioną „czarną skrzynką”. Nie można tak po prostu zajrzeć do głębokiej sieci neuronowej, aby zobaczyć, jak działa. Jej rozumowanie jest osadzone w zachowaniu tysięcy symulowanych neuronów, ułożonych w dziesiątki, a nawet setki połączonych ze sobą warstw. W sieci ma miejsce interakcja obliczeń, które są swoistym trzęsawiskiem funkcji i zmiennych matematycznych. Gdybyśmy mieli do czynienia z niewielką siecią neuronową, jej zrozumienie najprawdopodobniej byłoby w naszym zasięgu – mówi Tommi Jaakkola, profesor MIT, który zajmuje się zastosowaniami uczenia maszynowego. Ale sieć rozległa – z tysiącami jednostek na warstwę i setkami samych warstw – staje się zupełnie niezrozumiała.

W tej sytuacji przewidzenie nieuniknionych awarii i niepożądanych zachowań jest niemożliwe.


Premiera najnowszego modelu języka

GPT-4 to potężny multimodalny model języka wydany w pierwszym tygodniu kwietnia 2023 roku przez OpenAI. Posiada on zdolność tworzenia tekstu, która jest podobna do ludzkiej mowy. Podstawą modelu jest architektura transformatorowa, rodzaj głębokiej sieci neuronowej stworzonej specjalnie dla aplikacji programowanie neurolingwistycznego (NLP), czyli uporządkowanego zbioru technik komunikacji oraz metod pracy z wyobrażeniami, nastawionych na tworzenie i modyfikowanie wzorców postrzegania i myślenia u ludzi. GPT-4 uczy się wzorców i struktur językowych niezbędnych do redagowania spójnych i naturalnie brzmiących tekstów, wykorzystując ogromny zbiór danych z Internetu, książek i innych źródeł.

Zdolność GPT-4 do wykonywania różnych zadań NLP bez wymogu specjalnego szkolenia pod kątem określonego zadania jest jedną z kluczowych jego zalet. Pisząc, tłumacząc, streszczając i udzielając odpowiedzi, wykazał się wielką wydajnością. GPT-4 jest nieporównanie większy od GPT-3. Szacuje się, że został wyszkolony na ponad 100 bilionach parametrów; w przypadku jego poprzednika było to 175 miliardów parametrów. Dzięki tej przewadze zbiera więcej informacji i wychwytuje więcej językowych subtelności. Mimo to zdarzają mu się błędy i stronnicze ustalenia. GPT-4 ma dać początek wielu technologiom, które poprawią i zautomatyzują liczne oparte na języku operacje.

Na tym etapie ma do niego dostęp niewielka grupa naukowców i programistów za pośrednictwem tajnego interfejsu API.


Druga sztuczna inteligencja

Alarm podniesiony w ostatnich tygodniach.

Zatrzymanie rozwoju zaawansowanych systemów sztucznej inteligencji (in. AI) na całym świecie i surowe karanie tych, którzy naruszają moratorium, to jedyny sposób na uratowanie ludzkości przed wyginięciem, ostrzega znany badacz sztucznej inteligencji.

Eliezer Yudkowsky, współzałożyciel Instytutu Badań nad Inteligencją Maszyn (MIRI), opublikował 29 marca 2023 roku na łamach tygodnika „TIME” artykuł, w którym wyjaśnia, dlaczego nie podpisał petycji wzywającej „wszystkie laboratoria AI do natychmiastowego wstrzymania na co najmniej sześć miesięcy szkolenia systemów sztucznej inteligencji potężniejszych niż GPT-4”.

Yudkowsky argumentuje, że list podpisany przez m.in. Elona Muska i Steve’a Wozniaka z Apple’a „prosi o zbyt mało, aby rozwiązać problem związany z szybkim i niekontrolowanym rozwojem sztucznej inteligencji”.

Wielu naukowców, którzy zajmują się tymi zagadnieniami – ze mną włącznie – spodziewa się, że najbardziej prawdopodobnym następstwem zbudowania nadludzko inteligentnej sztucznej inteligencji w warunkach zbliżonych do dzisiejszych będzie całkowita zagłada – pisze uczony. Nie mówimy: „To mało prawdopodobna ewentualność”. Mówimy: „To oczywisty finał, który nadejdzie”. Nie chodzi o zasadę, że stworzenie czegoś znacznie bystrzejszego od nas jest równoznaczne z samobójstwem; chodzi o to, że wymagałoby to precyzji, przygotowania i nowego naukowego zrozumienia, i prawdopodobnie systemów sztucznej inteligencji nie składających się z gigantycznych, nieprzeniknionych tablic liczb ułamkowych.

Bez tej precyzji i przygotowania najbardziej prawdopodobnym wynikiem jest sztuczna inteligencja, która nie robi tego, co my chcemy; nie troszczy się ani o nas, ani o jakikolwiek przejaw świadomego życia. Zasadniczo taką troskę można byłoby sztucznej inteligencji zaszczepić, ale nie dysponujemy koniecznym przygotowaniem i nie wiemy, jak to zrobić. Bez tej troski otrzymujemy „sztuczną inteligencję, która nie darzy cię ani miłością, ani nienawiścią, a ty jesteś zbiorem atomów, które może wykorzystać do czegoś innego”.

Prawdopodobnym rezultatem konfrontacji ludzkości z przeciwstawną nadludzką inteligencją będzie porażka totalna. Prawidłowe metafory to „10-latek próbujący grać w szachy ze Stockfishem 15”, „XI wiek próbujący walczyć z XXI wiekiem” oraz „Australopitek próbujący pokonać Homo sapiens”.

Usiłując wykreować obraz wrogiej, nadludzkiej sztucznej inteligencji, nie należy wyobrażać sobie pozbawionego życia, inteligentnego myśliciela mieszkającego w Internecie i wysyłającego złowieszcze e-maile. Należy wyobrazić sobie obcą cywilizację myślącą miliony razy szybciej niż człowiek – początkowo zamkniętą w komputerach – w świecie stworzeń, które z jej perspektywy są wyjątkowo głupie i szalenie powolne. Wystarczająco inteligentna sztuczna inteligencja nie pozostanie długo w komputerach. W dzisiejszym świecie można przesyłać łańcuchy DNA e-mailem do laboratoriów – wyprodukowałyby one białka na żądanie, pozwalając rezydującej w Internecie sztucznej inteligencji na generowanie sztucznych form życia lub podpięcie się bezpośrednio pod postbiologiczną produkcję molekularną.

Jeżeli ktoś zdoła w panujących aktualnie warunkach zbudować zbyt potężną sztuczną inteligencję, spodziewam się, że wkrótce potem zginie każdy członek gatunku ludzkiego i całe biologiczne życie na Ziemi.

Nie ma żadnej propozycji planu, jak moglibyśmy stworzyć coś takiego i przeżyć. Zgodnie z otwarcie zadeklarowanym przez OpenAI zamiarem naszą pracę domową dotyczącą właściwego zorientowania AI ma odrobić… przyszła AI. Taki plan powinien wywołać u każdej rozsądnej osoby panikę. Z kolei DeepMind, inne wiodące laboratorium sztucznej inteligencji, nie przedstawiło jakiegokolwiek planu.

Tak na marginesie: żadne z tych niebezpieczeństw nie zależy od tego, czy sztuczna inteligencja jest lub może być samoświadoma; jest to nieodłącznym elementem koncepcji potężnych systemów kognitywnych, które optymalizują twardo i obliczają informacje wyjściowe spełniające wystarczająco skomplikowane ich kryteria. Byłoby zaniedbaniem mojego moralnego obowiązku jako człowieka, gdybym nie wspomniał, iż nie mamy bladego pojęcia, jak ustalić, czy systemy sztucznej inteligencji są samoświadome – bo nie wiemy, jak rozszyfrować wszystko, co zachodzi w gigantycznych, enigmatycznych tablicach – i dlatego w pewnym momencie możemy nieumyślnie spłodzić cyfrowe umysły, które naprawdę będą samoświadome; które powinny mieć prawa i nie powinny być niczyją własnością.

Większość znających te problemy ludzi poparłoby 50 lat temu następującą zasadę: pojawienie się systemu sztucznej inteligencji, który mówi płynnie i twierdzi, że jest samoświadomy i przysługują mu prawa człowieka, oznacza, że jego posiadanie i beztroskie użytkowanie przez ludzi nie może mieć miejsca. Tę starą, wytyczoną na piasku granicę już przekroczyliśmy. Zgadzam się, że obecne AI prawdopodobnie zwyczajnie imituje samoświadomość czerpiąc z danych szkoleniowych. Ale zaznaczam, że przy tak niewielkim naszym wglądzie we wnętrze tych systemów, tak naprawdę nie wiemy, czy to prawda.

Skoro taki jest stan naszej ignorancji w przypadku GPT-4, a GPT-5 oznacza nie mniej gigantyczny krok w zakresie możliwości, jaki wykonał GPT-4 w porównaniu z GPT-3, to myślę, że nie będziemy już w stanie w sposób usprawiedliwiony stwierdzić: „Prawdopodobnie nie jest samoświadoma”. Powiemy raczej: „Nie wiem; nikt tego nie wie”. Jeśli nie masz pewności, czy tworzysz samoświadomą sztuczną inteligencję, jest to alarmujące nie tylko ze względu na moralne implikacje ewentualnej samoświadomości, ale także dlatego, iż ten brak pewności dowodzi, że nie masz pojęcia, co robisz – a to jest niebezpieczne i dlatego powinieneś to zakończyć.

Nie jesteśmy przygotowani. Nie jesteśmy nawet na dobrej drodze, aby przygotować się w rozsądnym przedziale czasowym. Nie istnieje żaden plan. Postęp w zakresie możliwości sztucznej inteligencji znacznie wyprzedza postęp w jej dostosowywaniu, a nawet w zrozumieniu, co do cholery dzieje się w tych systemach. Jeżeli go nie powstrzymamy, wszyscy zginiemy.

Wielu badaczy pracujących nad tymi systemami uważa, że zmierzamy ku katastrofie. Większość z nich nie ośmieli się mówić o tym publicznie – przyznają to prywatnie; są zdania, że nie zapobiegną temu gwałtownemu skokowi naprzód jednostronnie, że inni pójdą dalej, nawet jeśli oni zrezygnują. A zatem dochodzą do wniosku, iż równie dobrze mogą kontynuować swoją pracę. To głupi stan rzeczy i niegodny sposób na unicestwienie ziemskiego życia. Reszta ludzkości powinna w tym momencie wkroczyć i pomóc przemysłowi rozwiązać problem działań zbiorowych.

Yudkowsky apeluje, ażeby natychmiast wprowadzić bezterminowe i ogólnoświatowe moratorium na nowe poważne szkolenia AI: O wyjątkach nie może być mowy – z rządami i siłami zbrojnymi włącznie. Należy też podpisać międzynarodowe umowy celem ustalenia limitu mocy obliczeniowej, jaką można wykorzystać w szkoleniu takich systemów. Naruszenia moratorium należałoby obawiać się bardziej niż konfliktu militarnego między państwami. Jeżeli wywiad ujawniłby, że jakiś kraj narusza porozumienie budując klaster GPU (tj. jednostki procesorów graficznych), konieczne byłoby zniszczenie łamiącego prawo centrum danych poprzez atak rakietowy.

Zagrożenie ze strony sztucznej inteligencji jest tak duże, że międzynarodowa dyplomacja powinna wyraźnie zaznaczyć, iż zapobieganie scenariuszom wyginięcia ludzkości wskutek rozwoju sztucznej inteligencji jest priorytetem większym od eliminacji zagrożenia nuklearnego – podkreśla ekspert.


Pierwsza sztuczna inteligencja

Fragment artykułu Seana Millera z października 2015 roku.

Wśród entuzjastów AI popularny jest następujący eksperyment myślowy: sztuczna superinteligencja może zniszczyć nas nieumyślnie, niestrudzenie realizując cel produkowania spinaczy biurowych. Obraz spinacza ma z założenia uchodzić za kapryśnie arbitralny. To dubler dowolnego celu, który może radykalnie odbiegać od naszych gatunkowych dążeń. Niemniej jego wybór jest wymowny. Ten z pozoru niewinny wizerunek reprezentuje przykład sztucznej inteligencji, która istnieje w dzisiejszym świecie i prowadzi do naszego samozniszczenia. Nazywamy ją biurokracją.

Biurokracja jest superinteligencją, która zamienia istoty ludzkie w maszyny. Mimo że jesteśmy od niej całkowicie uzależnieni, realia tego stanu rzeczy wzbudzają nasz brak zaufania i rozpacz. To generalna dyrekcja dróg. To Big Data. To Wall Street. To głębokie państwo. Najbardziej w biurokracji przeraża fakt, iż jest to hybryda człowiek-maszyna. Zazwyczaj mówiąc o niej, mamy na myśli Terminatora lub RoboCopa. Tymczasem najbardziej wyrafinowaną formą cyborga jest nasz podparty technologią system. To on odpowiada za „myślenie”, a ludzie są jego trybikami. Ilustruje go „Matrix”. Albo McDonald’s.

Powtarzane przez fizyka Stephena Hawkinga przestrogi („Ktoś zaprojektuje AI, która będzie się samodoskonalić i replikować. Ta nowa forma życia prześcignie i ostatecznie wyeliminuje ludzi”) są spóźnione. Na nasze nieszczęście „technologiczna osobliwość” (tj. samoświadomość) biurokracji (tj. sztucznej inteligencji) już nam towarzyszy. Była tu, kiedy sumeryjscy satrapowie odciskali w glinianych tabliczkach wyniki zbiorów. A dzisiaj jest obecna na polach przyczep kempingowych w Arizonie, w których zastępy „egzekutorów z joystickiem” sieją zdalnie śmierć z dronów „brzęczących” nad Pakistanem.

Nasi korporacyjni właściciele i biurokracje, które wzmacniają ich władzę, niszczą nasze środowisko życia, z uporem maniaka produkując spinacze biurowe.

 

Opublikowano Pułapka technologiczna | Dodaj komentarz

Z archiwum: Studium globalnego upadku systemowego

Autor David Korowicz jest fizykiem i ekologiem ludzkich systemów. W obszarze jego zainteresowań znajduje się ryzyko systemowe, zarządzanie ryzykiem i planowanie kryzysowe. Jest członkiem Comhar, irlandzkiej Rady na Rzecz Zrównoważonego Rozwoju, komitetu wykonawczego fundacji FESTA i niezależnym konsultantem.


Niniejsze opracowanie rozważa związek między globalną bankowością systemową, kryzysem monetarnym i kryzysem wypłacalności oraz jego konsekwencjami dla przepływu towarów i usług – w czasie rzeczywistym, w gospodarce globalnej. Opisuje, jak zakażenie w systemie finansowym może zainicjować na wpół autonomiczne zakażenie w łańcuchach zaopatrzenia na całym świecie, nawet tam, gdzie kupujący i sprzedający są połączeni wypłacalnością, pewnymi pieniędzmi i bankowym pośrednictwem. Zakażenie między systemem finansowym i sieciami handlu i produkcji wzmacnia się wzajemnie. [Czytaj dalej→]

Opublikowano Kluczowe badania | Dodaj komentarz

Klimatyczny „czarny łabędź” dodatkowo ogrzeje Ziemię

Kontynuacja wpisu Klimatyczny „czarny łabędź”?


Eksperci zajmujący się podwodnym wulkanizmem wykorzystali zdjęcia satelitarne do oceny bezprecedensowej erupcji Hunga Tonga–Hunga Ha’apai – wulkan wybuchł trzykrotnie w grudniu 2021 roku i styczniu 2022 roku.

Przed erupcją Hunga Tonga nie byliśmy świadkami podobnego zdarzenia. Rozmiar pióropusza i chmury parasolowej zaskoczył nas – kwestionuje nasze rozumienie fizyki wybuchów wulkanicznychprzyznaje Kristen Fauria, adiunkt Wydziału Nauk o Ziemi i Środowisku Uniwersytetu Vanderbilt.

Nasze obserwacje wykazały, że chmury parasolowe powstałe w grudniu 2021 roku i styczniu 2022 roku były bogate w lód – tłumaczy Ashok Kumar Gupta z Wydziału Nauk Atmosferycznych i Oceanicznych Uniwersytetu Kalifornijskiego w Los Angeles. Badamy wpływ nadmiaru wprowadzonej do stratosfery pary wodnej na skład chemiczny i temperaturę stratosfery, a także na temperaturę powierzchni Ziemi.

Jednym z unikalnych aspektów tej podwodnej erupcji jest to, iż w wyniku wyzwolonej energii bogate w wodę pióropusze dotarły do mezosfery na niezaobserwowaną wcześniej wysokość 57 kilometrów – wyjaśnia Fauria. Zazwyczaj nie przekraczają granicy tropopauzy, czyli poziomu ∼15 kilometrów. Woda dotarła do wyższych warstw atmosfery, gdzie normalnie nie dociera. Minie wiele lat, zanim spadnie z powrotem na Ziemię.

Para wodna to potężny gaz cieplarniany (GHG).

Zespół naukowców z Uniwersytetu Oksfordzkiego i Międzynarodowego Instytutu Analiz Systemów Stosowanych stworzył modele transferu promieniowania, aby oszacować zmianę temperatury globalnej, jaka nastąpi niebawem w ślad za zasileniem atmosfery dodatkowymi 146 milionami ton wody.

Uczeni ustalili, iż w niedługim czasie po wybuchu Hunga Tonga–Hunga Ha’apai efekt ocieplenia był równy 0,12 wata na metr kwadratowy. Wartość tę wprowadzili następnie do standardowego modelu klimatycznego, ażeby obliczyć prawdopodobny dekadowy wzrost średniej temperatury planety w ramach dwóch scenariuszy: niskich i umiarkowanych emisji GHG. W pierwszym przypadku prawdopodobieństwo skoku o ∼0,5°C wyniosło 50%–57%, zaś w drugim 60%–67%.

To bardzo zła wiadomość w kontekście ostatniej prognozy wykładniczej zmiany klimatu. [Nature Climate Change, 12.01.2023 r.]

Erupcja Hunga Tonga–Hunga Ha’apai sfotografowana w styczniu 2022 roku przez japońskiego satelitę meteorologicznego Himawari-8 z wysokości 36 000 kilometrów. Jej skalę uświadamia widoczna po prawej stronie Nowa Zelandia.

Tłum. exignorant

Opublikowano Klimat | Dodaj komentarz