第142章 超级人工智能(1 / 4)

“我们所期望找到的最先进的外星文明,是否可能已经不再是 “真正的生命体”?”

“我们人类自己,是否正走向一个 “感知能力可选项” 的未来?太空中是否散落着那些帝国的残骸,而这些残骸的每一部分都象过去一样 “鲜活且危险”?”

“我思考了一个很有趣的观点,现在将它展示给各位,内容如下:”

“僵尸人工智能或许能解释 “宇宙的大寂静”,原因是:技术发展遵循 “从易到难” 的规律,这一规律也适用于人工智能 —— 人工智能会从简单向更复杂发展。”

“这其中隐含的意思是:“技术奇点”不太可能在一夜之间出现;每一种更新、更复杂的人工智能技术迭代,都需要经过一段相当长的时间才能实现。”

“每一种更新、更复杂的人工智能技术迭代,都需要经过一段相当长的时间才能实现;而且,一个智能种族 “不按顺序” 发展这些技术的可能性几乎为零。”

“因此,在发展出 “感知型超级智能之前,一个文明必然会先发展出 “僵尸超级智能”—— 这种僵尸超级智能可能强大到足以 “逃离控制”,并通过故意、意外或漠不关心的方式 “杀死” 其创造者,但它本身并不具备自我认知能力。”

“之后,这个文明才可能发展出 “感知型超级智能”—— 这种智能足够复杂,能够自我扩展,并像理性的生物实体一样行动,从而满足 “戴森困境”的要求。”

“而且,只有当这个文明成功克服了这些初始障碍后,他们才有可能开展足够的 “人工智能对齐”和控制研究,从而避免被自己创造的人工智能毁灭。”

“简而言之,危险的僵尸人工智能会先于危险的感知型人工智能出现;而只有在这两种危险人工智能都出现之后,真正全面的 “安全人工智能创建和使用方法” 才有可能被开发出来。”

“这一推理遵循了 “排他性原则”。”

““不按顺序” 发明这些技术的可能性极低。需要提醒的是,在费米悖论的背景下,“排他性” 指的是:任何涉及 “行为” 的解决方案,都必须 “普遍适用” 或 “几乎普遍适用”。”

“例如,如果某个解决方案认为 “所有文明最终都会趋向于某种特定行为”(比如避免殖民太空),那么就必须有充分的理由来解释为何这种行为的 “例外情况” 极其罕见。”

“否则,该解决方案就会因 “非排他性” 而失去解释力。”

“举个例子:能够进行星际旅行的文明,都必然受限于基础数学和物理的基本知识(这是 “普遍适用” 的)”

“但他们是否喜欢棒球,却与他们探索太空的能力无关(这是 “非普遍适用” 的)。”

“同样,尽管某些经济或政治体系可能更有利于实现太空殖民或长期存续,但我们知道,在不同的体系下,文明都有可能进入太空。”

““太空竞赛” 就是一个明确的例证 —— 资本主义国家(美国)和社会主义国家(苏联),都在太空探索领域取得了重大进展。”

“同样,民主国家、寡头国家和共和国,也都证明了自己有能力发展太空计划。因此,在 “能够进行星际旅行的文明” 这一范畴中,上述经济或政治体系都不具备 “排他性”。”

“当然,我们也可以设想一些 “例外情况”。”

“例如:某个文明源自 “天生就能进行太空旅行的物种”—— 这类物种进化于小行星带或行星环中。”

“同样,我们也可能设想 “所有智能文明最终都会趋向于某种特定的政治或经济体系”。但这些都只是用于阐释 “排他性” 概念的例证,它们并不需要是 “完美的规则”。”

“即便在某个星系中,每一百万个人类文明中只有一个

最新小说: 艳妻凶猛:坏女人都想圈养我! 叶风叶紫灵 江湖:从征服大女人开始 魔劫临 宿命轮回 胡说,她才不是扫把星 斗破之炎帝是我孙子 修仙:我在山海聚众飞升 高武 我的系统太抽象了! 我为病娇吃糖