Antropofagi

onsdag 18 september 2019

Newcomb's problem och simulations-argumentet: Ett tvärcivilisatoriskt simulations-tabu

(Relaterat: Svart boll; Greider Becker kommenterar protestantismen; Newcomb's problem och afroamerikanska maskulinitetsnormer; Newcomb's problem och föräldraskap; gåtornas lösning; agent-struktur-debatten är död.)

Helsingborgaren Nick Bostrom är inte minst känd för sitt sk. simulations-argument. Det lyder:
"[...] at least one of the following propositions is true: (1) the human species is very likely to go extinct before reaching a 'posthuman' stage; (2) any posthuman civilization is extremely unlikely to run a significant number of simulations of their evolutionary history (or variations thereof); (3) we are almost certainly living in a computer simulation. It follows that the belief that there is a significant chance that we will one day become posthumans who run ancestor‐simulations is false, unless we are currently living in a simulation."
Kort, ungefärligt sammanfattat: Antingen tenderar civilisationer att förstöra sig själva innan de blir kapabla att köra realistiska simulationer av sina förfäder; eller så tenderar "teknologiskt mogna" civilisationer att vara ointresserade av att köra sådana simulationer; eller så är det nästan säkert att vi lever i en simulation.

Många oroar sig för att det första är sant, och att detta således är ett ytterligare bevis på att vi någon gång kommer att utplåna oss själva. (Ett annat skulle vara Fermis paradox; ett annat skulle vara att vi nästan utplånat oss själva med kärnvapen; ett annat skulle vara att vi är dåliga på att lösa globala koordinationsproblem såsom människoorsakad global uppvärmning.)

Antropofagi anser sig dock ha funnit ett argument för att den andra av tre hypoteser i simulations-argumentet kan vara sann. Till min hjälp tar jag Newcomb's problem, som tjatats om här på bloggen (se länkar ovan eller relevant segment i följande Prezi-presentation).



***

Problemet i korthet:

En superintelligent entitet, känd som The Predictor, visar dig två stängda lådor. Du får välja vilken av dem du vill öppna. Ett tillåtet alternativ är: Båda lådorna. Du får behålla det du hittar i den eller de lådor som du öppnar.

Vi kallar lådorna 1 och 2, men du kan inte skilja dem åt. Innehållet i 1 varierar; ibland är där 1mkr, ibland 0. Låda två innehåller alltid 1000 kr. Du kommer givetvis att välja att öppna två lådor, för att maximera din payoff.

Men! The Predictor kan förutse ditt låd-öppnar-val med 100 procents säkerhet. Utifrån sin förutsägelse har The Predictor redan preparerat lådorna och bestämt deras innehåll (1mkr eller 0kr, respektive 1000 kr). Lådornas innehåll är således redan bestämt.

Om The Predictor förutsåg att du skulle välja två lådor, är innehållet i låda 1 alltid 0kr. Om hen förutsåg att du skulle välja en låda, är innehållet i låda 1 alltid 1mkr.

Innehåller är redan bestämt, innan du väljer. Hur många lådor väljer du att öppna?

The predictor har alltid rätt i sina förutsägelser. Hur många lådor väljer du att öppna?

Taktiken two box innebär att man väljer två lådor, eftersom man då försäkrar sig om att få sina 1000 kr i låda 2. Man kan ju ändå inte påverka lådornas innehåll - det är redan bestämt.

Taktiken one box innebär att man väljer en låda, för att ha en chans på 1mkr. The Predictor har ju alltid rätt, så om man väljer en låda har hen såklart förutsett att man ska göra det, och därmed preppat låda 1 med 1mkr.

Newcomb's problem är något av en mindfuck. Men ett lite skönt mindfuck. Som hjälper dig att vara reduktionist-determinist och ändå agera för att befinna dig i önskar universum. Det vill säga, erkänna att allt är förutbestämt, men ändå välja att vara en sån som är förutbestämd att göra på ett sådant sätt som du skulle vilja att du var en som gjorde. Så att säga. Som calvinister, typ.

***

Vad har då Newcomb's problem att göra med simulations-argumentets andra hypotes?

Jo:

Vi bör kunna att alla civilisationer som når teknologisk mognad, också på vägen upptäcker simulations-argumentet. (Framförallt givet att det faktiskt är korrekt, vilket jag lämnar till smartare hobby-filosofer att avgöra.) Då kan vi tänka oss att alla civilisationer som når teknologisk mognad helt enkelt one box:ar att inte köra några förfäder-simulationer.

Rimligen vill ingen vara en simulation. Då skulle vi kunna tänka oss att varje civilisation, när de når kapacitet, väljer att inte köra simulationer av sina egna förfäder, för att minska antalet simulationer och således förbättra ration mellan verkliga verkligheter och simulerade verkligheter. Genom att inte köra simulationer, minskar de sannolikheten att de själva är simulerade.

Detta verkar givetvis absurt, eftersom de redan är, eller inte är, en simulation. Men, det är just det som är grejen med one box-taktiken i Newcomb's problem. Genom att hacka kausalitetens tids-riktning kan man manifestera att man befinner sig i den värld där man vill befinna sig. Man vill välja att befinna sig i en värld där ingen kör miljarders miljarder simulationer, så därför kör man inte miljarders miljarder simulationer.

Därför borde vi kunna förvänta oss att det uppstår ett tvärcivilisatoriskt simulations-tabu, där inga teknologiskt mogna civilisationer vill köra några simulationer.

Med denna möjlighet i åtanke kan vi öka sannolikheten för att den andra hypotesen i simulations-argumentet är sann, snarare än den första eller tredje:

(1) the human species is very likely to go extinct before reaching a 'posthuman' stage;

(2) any posthuman civilization is extremely unlikely to run a significant number of simulations of their evolutionary history (or variations thereof);

(3) we are almost certainly living in a computer simulation.