Az emberiségre leselkedő legújabb veszély: a hosszútávizmus

TECH
2021 október 27., 11:44

A világvége fenyegetésének érzete szinte egyidős a történelemmel, mindig szóltak róla próféciák, hiedelmek. Ami viszont a korábbiaktól megkülönbözteti a mostani helyzetet, amikor is az emberiség jelentős része valamiféle globális katasztrófától tart, az az, hogy ezúttal nem revelációk vagy a történelemről szóló szekuláris metanarratívák (mint a marxizmus) alapján készülhetünk az összeomlásra, hanem a világ vezető tudósai mondják ezt tudományos kutatásokra alapozva.

A klímaváltozás, a Nap tevékenysége, a biotechnológiai forradalom, a mesterségesintelligencia-kutatás, a gazdaság egyre szélsőségesebb túlpörgetése, a tömegpusztító fegyverek elterjedése mind jó okot adnak az aggodalomra. Noam Chomsky szerint a kipusztulás az emberiség történelmében sosem volt még ennyire fenyegető, Max Tegmark szerint pedig vagy még az életünk során összekapja magát az emberiség, vagy kiirtjuk magunkat.

Az elmúlt két évtizedben egy csoport oxfordi teoretikus azzal volt elfoglalva, hogy kidolgozzon egy új erkölcsi világnézetet, amit longtermismnek, vagyis hosszútávizmusnak neveznek. Ez gyakorlatilag annak a hangsúlyozása, hogy a tetteinknek hosszú távú következményei lehetnek az univerzumban, évezredek, -milliók, -milliárdok vagy akár -billiók múlva. Karl Marx 1845-ben azt írta, „a régi materialisták »az ember lényegét« absztrakt módon értelmezték, nem pedig mint a (konkrétan történelmileg meghatározott) »társadalmi viszonyok összességét«, és ezért a világot csak »magyarázták«, holott az a feladat, hogy »megváltoztassuk«”. A hosszútávisták pedig éppen ezen dolgoznak.

Phil Torres filozófus az Aeonon 40 ezer karakteres cikkben állt ki a hosszútávizmus ellen, mert az szerinte a világ legveszélyesebb szekuláris hitvallása. Négy éve még egy egész könyvet írt arról, hogy a hosszútávizmus milyen jó, de azóta megváltozott a véleménye, és most az a célja, hogy minél többen megismerjék az ideológiát, amiről az elit egyetemeken és a Szilícium-völgyön kívül alig hallott valaki, miközben az elmúlt években a világ egyik legbefolyásosabb szellemi irányzatává vált.

Öntik a pénzt a távoli jövőbe

A hosszútávistákhoz köthető szervezetek az elmúlt egy-két évtizedben elképesztő mennyiségű pénzt szedtek össze, egyes számítások szerint összesen 46 milliárd dollárt.

Elon Musk 1,5 millió dollárt adományozott a hosszútávista Future of Humanity Institute-nak (FHI) a Future of Life Institute-on keresztül, amit Jaan Tallinn multimilliárdos tech-vállalkozó alapított, aki nem hisz abban, hogy a klímaváltozás „egzisztenciális kockázat” lenne az emberiségre nézve. A milliárdos libertárius és Donald Trump-támogató Peter Thiel nagy összegeket adományozott a hosszútávista Machine Intelligence Research Institute-nak, aminek az a küldetése, hogy megmentse az emberiséget a szuperintelligens gépektől.

Ezek a szervezetek hosszútávista projekteket és esszéket finanszíroznak, és bevallott céljuk, hogy az USA vezetésében magas szintű tisztségviselőik legyenek. Jason Matheny, az FHI korábbi kutatási asszisztense most Joe Biden technológiai és nemzetbiztonsági asszisztense, míg Toby Ord, az FHI egyik filozófusa adott már tanácsot a WHO-nak, a Világbanknak, a Világgazdasági Fórumnak, az USA Nemzeti Hírszerzési Tanácsának, az Egyesült Királyság Miniszterelnöki Hivatalának, és nemrég hozzájárult az ENSZ főtitkári jelentéséhez is, ami említi a „hosszú távú gondolkodást”.

Létezés < potenciál

A cikk Frank Ramsey példáján keresztül érzékelteti a hosszútávizmus mibenlétét. Az angol matematikus-filozófus-közgazdász kora nagy ígérete volt, Keynes pártfogoltja és Wittgenstein barátja volt, de egy májbetegségben 1930-ban, 26 évesen meghalt. A halála után nemcsak azt emelték ki, milyen jó élete volt és mi mindent alkotott, hanem azt is, hogy micsoda veszteség érte a tudományt, hiszen egy ilyen briliáns elme a már soha meg nem születő műveivel talán teljesen új irányt adhatott volna a gondolkodásunknak.

A hosszútávisták az emberiséget kezelik úgy, mint ilyenkor az egyént: az emberiségnek is megvan a maga potenciálja, amivel vagy tud vagy nem tud élni az élettartama során. Például ha évekkel vagy évtizedekkel egy termonukleáris háború után délben a fagypont alatti hőmérsékleten a koromsötét ég alatt az utolsó ember is éhen halna, az felfoghatatlan tragédia lenne minden élő számára. De csillagászati távlatból van egy ennél is rosszabb olvasata a dolognak: a kihalásunk végleg eltörölné azt a hosszú és virágzó, potenciális jövőt, amit a következő mondjuk kb. 10100 év tartogathat számunkra. (Azután a „hőhalál”, a maximális entrópia úgyis lehetetlenné tenné az életet.)

Így viszont az egyénre is tekinthetünk a potenciál felől: mi lett volna, ha Ramsey nem meghal, hanem ahelyett, hogy tanul és ír, egy kocsmában múlatja az időt ivással és biliárdozással. Az eredmény az emberiség szemszögéből ugyanaz, pedig más okozta a hibát. A hosszútávisták szerint az emberiség is kihasználatlanul hagyhatja a lehetőségeit anélkül, hogy kihalna.

Ez a hosszútávizmus központi dogmája: etikailag semmi sem számít többet, mint a „Földről származó intelligens élet” fajában rejlő lehetőségek megvalósítása.

A jelen feláldozása a jövő oltárán

Hogy miért lehet veszélyes ez a koncepció, arra a szerző rövid válasza az, hogy ha mindenek fölé emeljük az emberiség feltételezett potenciáljának kiteljesedését, az éppen hogy növelheti annak a valószínűségét, hogy a ma és a közeljövőben élő emberek rendkívüli károkat szenvednek el, vagy akár meg is halnak miatta.

A hosszútávista ideológia alapján a klímaváltozással szemben is lehetünk érzéketlenek. Mert még ha a klímaváltozás hatására el is tűnnek szigetországok, tömeges migráció indul, és emberek milliói halnak meg, az nem feltétlenül fogja veszélyeztetni a hosszú távú lehetőségeinket az elkövetkező évmilliárdokban. Még egy olyan katasztrófa is, ami a következő két évezredre 75 százalékkal csökkenti az emberi populációt, a dolgok nagy rendszerében csak egy apró pofonnak tűnik, mint egy 90 éves embernek az, hogy 2 évesen beütötte a lábujját.

Nick Bostrom svéd filozófus, aki az emberiség hosszú távú jövőjével foglalkozva vált híressé, azzal érvel, hogy egy katasztrófa, ami a globális civilizáció összeomlását okozná, az egész emberiség szemszögéből nézve még potenciálisan helyrehozható visszaesést eredményezne, és hosszú távon szinte észrevehetetlen apróság lenne a fejlődésünkben. Eszerint a két világháború, az AIDS és a csernobili atomkatasztrófa is azoknak katasztrófa, akiket közvetlenül érintenek, de az ilyen katasztrófák közül a legrosszabbak is csak apró fodrozódások az élet nagy tengerének felszínén.

Homályos számításokkal a nagyobb közjóért

Bostrom szerint nem szabad „elpazarolnunk” a véges erőforrásainkat olyan „jó érzést nyújtó, de nem megfelelően hatékony projektekre”, mint például a globális szegénység vagy az állatok szenvedésének csökkentése, mivel egyik sem fenyegeti a hosszú távú potenciálunkat, és az az, ami igazán számít. Sőt a hosszútávisták szerint a gazdagabb országok megvédése fontosabb feladat, mint a szegényebbeké, mert a technológia és a gazdaság fejlődéséhez jobban hozzájárulnak, tehát a távlati cél elérésében hasznosabbak.

Toby Ord szerint a legfontosabb, hogy olyan stabil védőhálót biztosítsunk az emberiségnek – például azzal, hogy egy része elhagyja a Földet –, hogy semmilyen katasztrófa ne tudja önmagában a teljes emberiség pusztulását okozni. Ord homályos módszertannal érvelve úgy véli, annak az esélye, hogy a klímaváltozás az egész emberiséget elpusztítja, 1 az 1000-hez, míg az, hogy szuperintelligens gépek végeznek velünk, két nagyságrenddel valószínűbb, ezért sokkal fontosabb probléma.

Már Thomas Nagel amerikai filozófus levezette, hogy a nagyobb jóra hivatkozva például háború vagy nemzetbiztonsági veszély idején milyen atrocitásokat próbáltak igazolni, csak hogy csökkentsék a lelkiismeret-furdalást azokban, akik felelősek voltak a szörnyűségekért. És vajon milyen áldozat lehet indokolt, ha a tét a Földről származó intelligens élet kozmikus potenciálja az elkövetkező évbilliókban? A II. világháború idején 40 millió civil halt meg, ami semmi ahhoz a 1054 vagy még több emberhez képest, akik Bostrom becslése szerint még megszülethetnek, ha elkerüljük a kipusztulást.

Nik Bostrom 2015-ös TED Talkja
photo_camera Nick Bostrom 2015-ös TED Talkja Fotó: Bret Hartman/TED/Flickr

Bostrom szerint komolyan meg kell fontolnunk egy globális, invazív megfigyelőrendszer létrehozását, ami valós időben figyeli a bolygó minden emberét, hogy megerősítse a „megelőző rendőri képességeket”, például megakadályozza a civilizációt elpusztító terrortámadásokat. Szerinte ha csak 1 százalék esélye van annak, hogy a jövőben élhet 1054 ember, akkor „az egzisztenciális kockázat 1 százalékpont milliárdod részének a milliárdod részével való csökkentésének várható értéke 100 milliárdszor akkora, mint 1 milliárd emberélet”.

Ilyen logika mentén ha a CIA információt szerez arról, hogy valahol Németországban egy terrorista a világot elpusztítani képes gépet épít, és 1 a millióhoz az esélye, hogy kiirthatja vele az emberiséget, akkor némi számítás után az amerikai elnöknek arra kellene jutnia, hogy le kell bombáznia egész Németországot a 1054 potenciális ember védelmében.

A hosszútávizmus három lába

Az emberiség hosszú távú potenciálja három alappilléren nyugszik.

Olvasd tovább 4 forintért!

Az első 1000 új előfizető most szinte ingyen kipróbálhatja, milyen a Kör tagjának lenni.

Már előfizetőnk vagy? Jelentkezz be!

Kommentek

Közösségünk messze túlnyomó többségének jószándéka és minden moderációs igyekezetünk ellenére cikkeink alatt időről-időre a kollégáinkat durván sértő, bántó megjegyzések jelentek meg.
Hosszas mérlegelés és a lehetőségeink alapos vizsgálata után úgy döntöttünk, hogy a jövőben a közösségépítés más útjait támogatjuk, és a cikkek alatti kommentelés lehetőségét megszüntetjük. Közösség és Belső kör csomaggal rendelkező előfizetőinket továbbra is várjuk zárt Facebook csoportunkba, a Közértbe, ahol hozzászólhatnak a cikkeinkhez, és kérdezhetnek a szerzőinktől is.