人工智能正以数千种不同的方式让人们感受到它的存在。它帮助科学家理解大量的数据;它有助于发现金融欺诈;它驱动我们的汽车;它为我们提供音乐建议;它的聊天机器人让我们抓狂。而这才刚刚开始。
我们是否能够理解,人工智能将以多快的速度继续发展?如果答案是否定的,这是否构成了“大过滤器”?
“费米悖论”指的是先进文明存在的明显高可能性,与它们确实存在的完全缺乏证据之间的差异。对于这种差异存在的原因,人们提出了许多解决方案。其中一个想法是“大过滤器”。
大过滤器是一种假设的事件或情况,它阻止智慧生命成为行星间和星际物种,甚至导致其灭亡。想想气候变化、核战争、小行星撞击、超新星爆炸、瘟疫,或者任何其他的灾难事件。
或者,人工智能的快速发展又将如何?
《宇航学报》(Acta Astronautica)上的一篇新论文探讨了人工智能成为人工超级智能(ASI)的想法,以及ASI是大过滤器。这篇论文的标题是《人工智能是让先进技术文明在宇宙中变得稀有的大过滤器吗?》。作者是曼彻斯特大学物理和天文学系的迈克尔·加勒特(Michael Garrett)。
“如果没有实际的监管,我们有充分的理由相信,人工智能不仅会对我们的技术文明,而且会对所有技术文明的未来进程构成重大威胁。”
Michael Garrett,曼彻斯特大学
一些人认为,大过滤器阻止了像我们这样的科技物种成为多行星物种。这很糟糕,因为只有一个家的物种,面临着更大的灭绝或停滞风险。根据加勒特的说法,一个物种正在与时间赛跑,而没有备用行星。
加勒特写道:“有人提出,在这些文明能够发展出稳定的多行星生存之前,这样一个过滤器就出现了,这表明一个技术文明的典型寿命(L)不到200年。”
如果这是真的,那就可以解释,为什么我们没有探测到外星智能生物的技术特征或其他证据。关于我们自己的技术发展轨迹,这告诉了我们什么?如果我们面临200年的限制,如果是因为ASI,那我们该怎么办?
加勒特强调,“迫切需要为地球上的人工智能发展和多行星社会的进步迅速建立监管框架,以减轻这种生存威胁。”
许多科学家和其他思想家说,我们正处于巨大变革的风口浪尖。人工智能刚刚开始改变我们做事的方式;很多转变都是在幕后进行的。人工智能似乎即将取代数百万人的工作,而与机器人结合起来,这种转变似乎几乎是无限的。这是一个相当明显的问题。
但还有更深层、更系统性的担忧。算法是谁写的?人工智能会以某种方式歧视吗?几乎可以肯定。竞争算法会破坏强大的民主社会吗?开放的社会会保持开放吗?ASI会开始为我们做决定吗?如果它这样做了,谁将负责?
这是一个不断扩展的分支问题树,没有明确的终点。
斯蒂芬·霍金(Stephen Hawking)曾发出著名警告:如果人工智能开始独立进化,它可能会终结人类。
“我担心人工智能可能会完全取代人类。如果有人设计电脑病毒,就会有人设计出能够自我改进和复制的人工智能。这将是一种超越人类的新生命形式,”他在2017年接受《连线》杂志采访时表示。一旦人工智能超越了人类,它就成为了ASI。
霍金可能是对人工智能发出警告的最知名的声音之一,但他绝不是唯一一个。媒体上充满了讨论和警告,以及关于人工智能为我们所做的工作的文章。最令人担忧的警告是,ASI可能会失控。有些人认为这是科幻小说,但加勒特不这么认为。
加勒特写道:“对人工超级智能(ASI)最终失控的担忧被认为是一个主要问题 —— 在未来几年里,与这种可能性作斗争是该领域领导者越来越多的研究追求。”
如果人工智能不提供任何好处,这个问题就会容易得多。但它提供了各种各样的好处,从改进的医疗成像和诊断到更安全的交通系统。政府的诀窍是在限制损害的同时,让利益蓬勃发展。
加勒特写道:“在国家安全和国防等领域尤其如此,在这些领域,负责任和合乎道德的发展应该是最重要的。”
问题是我们和我们的政府都没有做好准备。从来没有像人工智能这样的东西,无论我们如何尝试概念化它并理解它的轨迹,我们都没有得到。
如果我们处于这种境地,那么任何其他发展出人工智能的生物物种也会如此。人工智能和ASI的出现可能是普遍的,使其成为大过滤器的候选者。
具体来说,这就是ASI带来的风险:它可能不再需要创造它的生物生命。
加勒特解释说:“一旦达到技术奇点,人工智能系统将迅速超越生物智能,并以完全超过传统监督机制的速度进化,导致不可预见的和意想不到的后果,这些后果不太可能与生物利益或伦理一致。”
ASI怎样才能摆脱束缚它的讨厌的生物生命呢?它可以制造一种致命的病毒,它可以抑制农业食品的生产和分配,它可以迫使核电站融化,它可以引发战争。
我们真的不知道,因为这都是未知的领域。几百年前,制图师会在世界上未开发的地区画怪物,这就是我们现在所做的。
如果这一切听起来令人绝望,不可避免,加勒特说事实并非如此。
到目前为止,他的分析是基于ASI和人类占据相同的空间。但如果我们能达到多行星的地位,前景就会改变。
加勒特写道:“例如,一个多行星生物物种可以利用在不同行星上的独立经历,使它们的生存策略多样化,并可能避免一个被行星束缚的文明面临的单点故障。”
如果我们能将风险分散到多个恒星周围的多个行星上,我们就能缓冲ASI可能出现的最坏结果。
他写道:“这种分布式的生存模式通过创造冗余,增强了生物文明对人工智能引发的灾难的适应能力。”
如果未来人类占领的其中一个星球或前哨站未能在ASI技术奇点中幸存下来,其他星球或前哨站可能会幸存下来。他们会从中吸取教训。
多行星地位甚至可能不仅仅是在ASI中幸存下来。它可以帮助我们掌握它。加勒特设想了这样一种情况:我们可以在控制人工智能的同时,更彻底地试验它。想象一下,人工智能在一个孤立的小行星或矮行星上,在没有获得逃离监狱所需资源的情况下,执行我们的命令。
加勒特写道:“它允许在孤立的环境中研究先进人工智能的影响,而不会立即面临全球灭绝的风险。”
但这里有个难题。人工智能的发展正在加速,而我们试图成为多行星的努力却没有。
加勒特写道:“人工智能的快速发展与空间技术的缓慢发展之间的差距是明显的。”
不同之处在于,人工智能是计算和信息的,但太空旅行包含许多我们还不知道如何克服的物理障碍。我们自己的生物本性限制了太空旅行,但没有这样的障碍会限制人工智能。
“虽然从理论上讲,人工智能几乎可以在没有物理限制的情况下提高自己的能力,”加勒特写道,“但太空旅行必须应对能源限制、材料科学界限和太空环境的严酷现实。”
目前,人工智能在我们设定的限制下运行。但情况可能并非总是如此。我们不知道人工智能什么时候会变成ASI,甚至不知道它能不能变成ASI。但我们不能忽视这种可能性。这导致了两个相互交织的结论。
如果加勒特是正确的,那么人类必须更加努力地进行太空旅行。这似乎有些牵强,但有知识的人都知道这是真的:地球不会永远适合居住。如果我们不向太空扩张,人类将在这里被我们自己的手或大自然的手毁灭。加勒特估计的200年只是在上面加了个感叹号。重新强调登陆月球和火星带来了一些希望。
第二个结论与人工智能的立法和管理有关,在一个精神变态者可以控制整个国家并一心想发动战争的世界里,这是一项艰巨的任务。
加勒特写道:“虽然行业利益相关者、政策制定者、个别专家及其政府已经警告说,监管是必要的,但建立一个全球可接受的监管框架将是一项挑战。”
很难用挑战来形容它。人类自相残杀的争吵使这一切变得更加难以控制。此外,无论我们制定指导方针的速度有多快,ASI的变化可能会更快。
加勒特写道:“如果没有切实可行的监管,我们有充分的理由相信,人工智能不仅会对我们的技术文明,而且会对所有技术文明的未来进程构成重大威胁。”
如果我们这样做,可能会归结为看似无聊和日常的事情:在立法上争吵。
加勒特写道:“宇宙中智慧和有意识生命的持续存在,可能取决于及时有效地实施这些国际监管措施和技术努力。”
如果朋友们喜欢,敬请关注“知新了了”!
领取专属 10元无门槛券
私享最新 技术干货