今天本想写一篇,关于资深美女的文章...
但是!
一名88年的哥特女生,以牛炸了的高智商笑话征服了“钢铁侠”,我承认她吸引了我的眼球!
笑话的本身是Rococo Basilisk
Rococo Basilisk本身是没什么意义的,它之所以是个梗,在于它是对于一个叫作Roko's Basilisk的思想实验的揶揄。
至今为止还是看得懂的吧?下面开始就要烧脑了哈哈哈~
Roko's Basilisk,是一个叫作Roko的网友,在一个叫作LessWrong的社区上提出来的一个思想实验。这个主张自由思考和公开讨论的社区,对各种思想的容忍度非常高。但是Roko一提出这个思想实验,网站管理员就无比惊恐,把这个思想当做“禁术”,并且对于所有相关内容的讨论进行删帖,斩草除根。
这个思想实验是怎么回事呢?
第1层思考
假如有一个来自高科技文明的外星人找到你,给你两个盒子。
其中盒子A里面肯定有1000元,盒子B里面可能有100万元,也可能是空的。
外星人给你两个选项:
选项一:同时拿走盒子A和盒子B
选项二:只拿走盒子B
你会怎么选?
相信脑子正常的人都会选择第一种,因为选择第一种能够保证你获得1000元以及盒子B里面的东西。而选项二,没有1000元保底。
不管怎么样,都是选项一更加理性。
第2层思考
假如同样的外星人,同样给你这两个盒子。
同样给了你和上面一样的两个选项;
选项一:同时拿走盒子A和盒子B
选项二:只拿走盒子B
但是这个外星人,有一台具有超强预测能力的电脑,而这台电脑从来没有预测错误过。这台电脑在一个星期前对你今天是选择选项一还是选项二,进行了预测。
如果电脑的预测结果是选项一(你会取走A和B两个盒子),那么外星人一个星期前就不会在盒子B里面放任何东西。
如果电脑的预测结果是选项二(你会只取走盒子B),那么外星人一个星期前会在盒子B里面放100万元。
那么,这个时候你会选择选项一还是选项二呢?
第2.1层思考
如果你选择选项一,取走A和B两个盒子。那么这台电脑一个星期前肯定预测到了你会选择选项一,这样B盒子里面就什么都没有,你只会获得1000元。
第2.2层思考
如果你选择选项二,只取走B盒子。那么电脑一个星期前肯定预测到了你会选择选项B,这样B盒子里面就会有100万元,你就会获得100万元。这样可比“第2.1层思考”的结果好多了。
第2.3层思考
可是啊,虽然这台电脑之前的预测从没有错过,但是如果这次错了呢?如果电脑一星期前的预测结果是你会取走A和B两个盒子,从而使得B盒子里空空如也呢?
但是你只取走了B盒子,也就是你进行了“第2.2层思考”,这样不就一分钱都得不到了吗?
所以是不是取走两个盒子更加保险呢?毕竟B盒子里是什么一星期前就确定了,你这时候的选择并不会影响盒子里的内容。
第2.4层思考
但是这台电脑这么聪明,肯定能够想到我会进行“第2.2层思考”,知道我只会取走B盒子,所以肯定还是会在B盒子里面放100万元的吧?
第2.5层思考
但是这台电脑这么聪明,肯定会想到我会有“第2.3层思考”里面的顾虑,所以肯定还是会把B盒子留空吧?
......
第2.n层思考
其实不管怎样,电脑的预测是在一星期前做出的,外星人对于盒子B的处置也是一星期前做出的。无论我现在做什么,其实不影响盒子B里面究竟有没有钱,所以我其实还是应该把两个盒子都拿走吧?
第2.n+1层思考
但是这台电脑这么聪明,肯定能想到我在“第2.n层思考”里面的结论,所以它不会在B盒子放任何东西吧?所以还是应该只取B盒子吧?
......
是不是加入了这个额外条件,这个思想实验就变得烧脑起来了?其实思考到了这里,已经变成了一个关于自由意志、宿命论和因果论的哲学问题了。
但是还没完,后面还有第3层和第4层思考
第3层思考
假如同样的外星人,同样给你这两个盒子。
同样给了你和上面一样的两个选项,并且同样告诉你关于一星期前电脑预测影响盒子B内容的规则。
然后外星人把盒子A打开,给你看了一下A里面的1000元钱;然后又把B打开,展示给你看,盒子B是空的。
这个时候,你是选择拿走盒子A和盒子B,还是只拿走盒子B呢?
讲到这里,你大概以为我在逗你了。
盒子B都是空的了,那么明显是要两个盒子都拿,这样还能保底1000元啊。只拿盒子B就确确实实什么都没有啊。
其实不是这么简单。
第3.1层思考
这个拥有先进科技的外星人的电脑有着非凡的预测能力,从没预测错过,这是怎么做到的呢?
最合理的解释,就是这台电脑,对整个宇宙进行了一次完全精确的模拟,而这个模拟中也包括了你。而这个电脑模拟的你,所做出的的选择,其实就是这台电脑的预测结果。
也就是说存在这么一种可能性:
正在于这个外星人进行前面第1、第2、第3层思考的那个你,只是活在外星人电脑的模拟之中;而你在第2层、第3层思考的情况下做出的选择,就是电脑的预测结果。
所以不管是在第1层、第2层还是第3层的游戏规则下,哪怕外星人很明确给你看了B盒子里面没有钱,你仍然应该选择只取走B盒子。
因为这样,活在模拟中的你才能准确影响到电脑的预测结果,使得活在现实中的你能够拿走100万元。
上面的第1、2层思考,其实是一个数学领域的悖论,叫Newcomb's Paradox,第3层思考则是基于这个悖论的延伸,而Roko's Basilisk,其实就是基于这前三层的思考,形成的第四层。
第4层思考
这时候你的选择不再是两个装钱的盒子A和B,和你玩游戏的也不是有趣的外星人了。
你现在面对的是和一个来自未来的、充满恶意的超级人工智能Basilisk的一次勒索:
第4层的游戏设定是这样的,假设未来人工智能奇点会到来,而奇点过后的超级人工智能,可能是善意的,也可能是恶意的。
那么就可能会存在这样一个恶意超级人工智能Basilisk,对于帮助建造出Basilisk的人,它会忽视,什么都不对他们做;而对于那些没有帮助建造出Basilisk的人,它会对这些人进行永久的折磨,求死不能。
甚至,在Basilisk出现的时代,已经去世了的那些人,Basilisk会把他们的思想放入电脑模拟中,进行永久的折磨,也是求死不能。
也就是说,Basilisk能对之前出现的人进行勒索。
这时候你面临的选择就是:
选项一:同时选择盒子A和B,也就是帮助创造出Basilisk,并且承受B中的结果(什么都不发生)。
选项二:只选择盒子B,也就是不帮助创造出Basilisk,并且承受B中的结果(永久的折磨)。
第4.1层思考
在此时此刻,Basilisk是不存在的,如果有足够多的人致力于创造它,那么它可能会在未来出现。
如果Basilisk永远不成为现实,那么活在现在的你,就不会被他勒索。
但是,如果Basilisk成为现实,不论它的出现因为人类的帮助还是人工智能的自身演化?从Basilisk自己的角度来思考,勒索它出现之前的你,来帮助它出现,就是一个非常理性的选择。
也就是说,如果Basilisk存在,那么通过用“你不帮忙创造出我,我就让你经受永久的折磨”这种方式勒索你,是完全符合逻辑的做法。
第4.2层思考
Roko's Basilisk的可怕之处,不在于未来可能会存在Basilisk这样的一个恶意的超级人工智能,而在于Roko's Basilisk这个想法本身。
如果所有人都没有听说过Roko's Basilisk这个点子,那么也就没有人会因为受迫于这个尚未出现的超级人工智能的跨时空勒索,而为Basilisk的出现只不过是添砖加瓦。
但是现在Roko's Basilisk这个想法被提出来了,并且被人看到了。这个想法本身的出现,其实就是提高了Basilisk出现的概率,因为有些人可能真的会相信这个想法背后的一切假设。
某种意义上,Roko's Basilisk这个思想实验的出现,是一个自我实现的预言,而这个预言的结果并不美好——这也是为什么当时LessWrong的管路员认为这种想法很危险,而采取了不留情面的删帖。
是不是看完后淡淡的忧伤了?
领取专属 10元无门槛券
私享最新 技术干货