Antropofagi

fredag 1 september 2017

AI-ut-ur-boxen-argument-hypotes

 
Men, nu har Antropofagi formulerat en hypotes avseende vilket argument som kan ha varit det avgörande.
 
(Hypotesen är förmodligen fel, men jag försöker i alla fall.)
 
Kanske argumenterade Yudkowsky ungefär så här:
 
"Detta och detta är faran med superintelligent självförbättrande AI. Sannolikheten för att du ska ha rätt i ditt antagande att du kan hålla AI:n inlåst är si eller så eller i alla fall inte 1. Att genom detta AI-i-boxen-experiment demonstrera för världen och allmänheten och forskarsamfundet att det går att hålla AI:n i boxen, riskerar att leda till oförsiktighet och en falsk känsla av trygghet. Jag, Yudkowsky, är inte AI-smart, och du kan således inte vara säker på att du kan hålla AI:n i boxen bara för att du kan hålla mig i boxen. Du bevisar alltså egentligen ingenting i strikt bemärkelse; du bara vinner vadet. Att utan bevis demonstrera för världen att det verkar möjligt att hålla AI:n i boxen, det är djupt oansvarigt. Det kan visa sig att du därmed bär ansvaret för mänsklighetens undergång. Släpp mig ut!"

Inga kommentarer:

Skicka en kommentar