当前位置:网站首页 > 更多 > 涨姿势 > 正文

[涨姿势] 费米悖论的新解决方案表明伟大的过滤器即将来临

作者:精品下载站 日期:2024-12-13 17:19:50 浏览:16 分类:涨姿势

费米悖论的新解决方案表明伟大的过滤器即将来临


这就是我们没有收到外星人消息的原因吗?

[涨姿势] 费米悖论的新解决方案表明伟大的过滤器即将来临

我们在这个过滤器上处于什么位置?

图片来源:Jiang 等人,arXiv,2022(CC BY-NC-SA 4.0)

一位天文学家提出了费米悖论的新解决方案,这意味着“伟大的过滤器”可能仍然存在于我们不久的将来。

首先,介绍一下背景。宇宙中有 2000 亿万亿颗恒星,自这一切开始以来已经过去了 137 亿年,您可能想知道所有外星文明都在哪里。这是费米悖论背后的基本问题,我们对宇宙中存在生命潜力的怀疑(假设在宜居带发现了行星等)与我们只发现了一颗拥有智慧(左右)物种的行星这一事实之间的紧张关系居住其中。 

一种解决方案,或者至少是一种思考问题的方式,被称为“大过滤器”。牛津大学人类未来研究所的罗宾·汉森提出,这一论点认为,由于缺乏观测到的技术先进的外星文明,生命或文明的发展必然存在巨大的障碍,阻止它们达到一个阶段。它们正在对环境产生巨大的、可察觉的影响,我们可以从地球上看到这一点。

我们还没有收到外星人的消息可能还有其他原因,从我们根本没有听足够长的时间(或者由于我们的技术不成熟,没有寻找来自外星人的正确信号)到外星人故意把我们关在银河动物园里。但如果大过滤器的想法是正确的,我们就不知道目前处于什么阶段。

可能是过滤器来得更早,比如从单细胞生命到复杂生命的跨越,或者从复杂动物到智慧动物的跨越确实很困难。不过,大过滤器可能就在我们面前,阻止我们成为一个探索星系的文明。例如,文明在发展到足以成为多行星物种之前,可能不可避免地会发现一种自我毁灭的方法(如核弹)。

曼彻斯特大学天体物理学主席、乔德雷尔班克天体物理学中心主任伯纳德·洛弗尔爵士 (Sir Bernard Lovell) 在一篇新论文中概述了人工智能 (AI) 的出现如何导致外星文明的毁灭。

加勒特在论文中写道:“即使在人工智能变得超级智能并具有潜在的自主性之前,它也可能会被生物文明中相互竞争的群体武器化,以求超越彼此。” “人工智能决策过程的快速性可能会以远远超出初衷的方式升级冲突。在人工智能发展的现阶段,人工智能在自主武器系统和实时防御决策过程中的广泛集成是有可能的。可能导致诸如全球热核战争之类的灾难性事件,从而加速人工和生物技术文明的灭亡。”

当人工智能导致人工超级智能(ASI)时,情况可能会变得更糟。

加勒特继续说道:“一旦达到技术奇点,ASI 系统将迅速超越生物智能,并以完全超过传统监督机制的速度发展,从而导致不可预见和意想不到的后果,这些后果不太可能与生物利益或道德相一致。” “维持生物实体的实用性,及其广泛的资源需求,如能源和空间,可能不会吸引专注于计算效率的 ASI——可能将它们视为麻烦而不是有益。ASI 可以迅速消灭其母体生物文明以各种方式,例如,设计并向环境中释放一种具有高度传染性和致命性的病毒。”

文明可以通过在其他行星或前哨站传播、测试人工智能(或与之共存)来减轻这种风险。这样做的一个优点是外星文明可以观察这些行星上的进展,并对风险发出警告。例如,如果人工智能在无休止地生产回形针的过程中突然开始毁灭地球,另一个正在观察的星球可能会知道这种潜在的结果,并采取措施避免它。

然而,加勒特指出,在地球上,我们向人工智能和 ASI 迈进的速度比我们成为多行星物种的速度要快得多。这与所涉及挑战的规模有关,太空探索需要大量的能源、材料进步,并克服太空中的恶劣环境。与此同时,人工智能的进步取决于数据存储和处理能力的提高,而我们似乎一直在这样做。

根据加勒特的说法,如果其他文明正在遵循我们似乎设定的道路,也许让人工智能协助应对成为行星际的挑战,人工智能灾难很可能会在它们在太阳系/星系的其他地方建立自己之前发生。加勒特估计,一旦广泛采用人工智能,文明的寿命约为 100 至 200 年,几乎没有机会与其他外星人接触或发送信号。这将使我们找到这样一个信号的机会相当渺茫。

加勒特总结道:“如果 ASI 将先进文明的通讯寿命限制在几百年,那么银河系中可能同时存在少数通讯文明。” “这与当前 SETI 调查和其他在电磁频谱上检测技术特征的努力所获得的无效结果并不矛盾。”

它可能会变得更加黯淡,因为它意味着大过滤器(我们在技术成熟之前自己的毁灭)可能仍然在我们前面,而不是在我们的过去。

该论文发表在《宇航学报》杂志上。

您需要 登录账户 后才能发表评论

取消回复欢迎 发表评论:

关灯