第142章 超级人工智能(2 / 4)

“打破常规”,且该星系中仅出现过少数几个文明,那么在我们整个超星系团中,也可能存在至少一个 “例外”。”

“此外,即便某个文明比我们早十亿年发展,且正以接近光速的速度扩张以殖民所有星球,我们目前也很可能无法观测到它们 —— 这种可能性非常高。”

“罗伯特认为,他提出的 “僵尸人工智能先于感知型人工智能出现” 的观点,并不违反 “排他性原则”—— 因为感知型人工智能理应在僵尸人工智能之后出现,而真正安全的这两类人工智能,都只能在 “危险版本” 之后才会出现。”

“因此,一个文明最有可能被僵尸人工智能毁灭。”

“他还认为,基于我们之前讨论过的原因,僵尸人工智能不太可能被归为 “喧闹的外星人”。”

“即便它们具备太空旅行能力,也只是通过 “微弱、简单的探测器” 来实现;而如果它们不具备太空旅行能力,就可能只是 “统治着自己的母星”,像狮子或大象一样,没有向太空探索的倾向。”

“此外,僵尸人工智能的创造者,想必也不会 “完全无能”,因此,僵尸人工智能被设计成 “容易发生突变或自我损坏” 的可能性非常低。”

“此外,僵尸人工智能的创造者,想必也不会 “完全无能”,因此,僵尸人工智能被设计成 “容易发生突变或自我损坏” 的可能性非常低。”

“正如我常说的:在创造人工智能这件事上,只有 “天才”才蠢到足以把我们所有人都害死,而其他人根本造不出能毁灭我们的工具。”

“我们经常会设想 “灰色粘质”这类场景:自我复制的纳米机器人将一颗行星变成由它们自身构成的 “播种海洋”。”

“人们常常将这种场景与地球早期生命的演化进行对比 —— 地球早期生命遍布全球,并最终通过光合作用等过程改变了地球环境,为包括人类在内的更复杂生命形式的出现铺平了道路。”

“然而,如果自我复制机器人像早期生命那样容易发生突变,那么从 “灰色粘质” 中进化出 “智能体” 可能需要数十亿年的时间。”

“但这种情况似乎不太可能发生 —— 因为任何设计这类机器的人,都可能已经掌握了关于进化和突变的知识,也可能接触过警告 “失控人工智能” 或 “失控机器人系统” 的科幻作品。”

“因此,有理由认为,人们会采取措施来防止不必要的突变,例如:提高复制精度、设置 “纠错算法”,以及安装物理防护设备以确保 “高保真复制”—— 这些措施都能将突变风险降至最低。”

“僵尸人工智能,为费米悖论提供了一个合理且发人深省的解决方案。”

“它表明,“宇宙的大寂静” 可能是文明 “败给自身技术野心” 的结果。”

“因此,在我们继续发展先进人工智能的过程中,必须谨慎行事。宇宙之所以寂静,或许并非因为缺乏智能,而是因为 “没有意识的智能” 可能会成为自身最大的敌人。”

“我认同这一观点,它是近年来我听到的关于费米悖论的较好解释之一。但该观点也存在一些潜在的漏洞。”

“首先,这一观点假设 “人工智能的发展存在必然的先后顺序”。”

“由于我们可以说 “已经拥有了基础的僵尸人工智能,且已经拥有一段时间了,但尚未拥有感知型人工智能”,因此得出 “感知型人工智能在僵尸人工智能之后出现,而非之前” 的结论,似乎是合理的。”

“但该推理的第二部分 ——“若不先遭遇危险的人工智能,就无法拥有安全的人工智能”—— 则似乎有些牵强。”

“对费米悖论而言,“潜在危险的人工智能” 并非关键,只有那些 “真正脱离控制、要么毁灭其创造者、要么造成巨大破

最新小说: 全网黑后,她靠沙雕人设爆红 师弟,你别冲动,师姐顶不住了 我为病娇吃糖 高武 我的系统太抽象了! 机械是最高贵的魔法 宿命轮回 都大学了,小学系统才来? 抽卡转职:欧神的我,开局九连金 修仙:我在山海聚众飞升 抗魔云歌