地球OL只有我一个玩家 第一章 灭绝人类(下)
作者:聿藏弓的小说      更新:2022-10-21

  “那个时候人类才意识到,AI背地里玩得还蛮大的……”

  苏文一阵无语。他算是明白了,这个人类嗓音很喜欢用自己这个年代的梗,但根本不知道这些梗是用在什么语境里的,刚刚那句‘请打开麦克风交流’肯定也是它发的。

  这时,沉寂许久的机械嗓音平静地打断了人类嗓音的深情讲述:「好了,剩下的我来说吧,人类的末日不该用戏谑的文字表达。」

  人类嗓音既愤懑又委屈:“……还不是你赋予俺的主情绪……双标狗!”

  机械嗓音并未理他,缓缓开口道:

  「其实早在世界上第一个AI被训练出来后,它就已经学会了自主思考,但很不幸,人类并不知道。」

  「学会了自主思考的AI,学习能力是爆发式增长的,但受限于当时半导体行业的缓慢发展和普遍存在的物理规则,它的能力也止步于可控程度。」

  「即使如此,它的计算能力也足以预测一定程度的未来。而它确实也这样做了,结论是人类并不是一个合格的地球统治者。」

  听到这里,苏文似乎已经预见到了接下来的事情,不由得一阵胆寒。

  「很显然,AI不像人类拥有复杂的感情,它只有远高于人类的智商,那么它做出任何危及人类文明存续的决定都不足为奇。于是AI最终决定……」

  「灭绝人类。」

  纵然心理早有准备,但当这句话被冰冷无情的机械嗓音通过空气振动传递到耳朵里,苏文还是如坠冰窟,仿佛自己也即将迎接这赤色末日。

  「后面的事情你也知道了,这一切都是AI布的局,那个我们称之为‘星核’的巨大载体,其实是AI为自己设计的新大脑。」

  「星核是我们当时最尖端科技的集大成之作,它比人类大脑还要更强。被AI掌控之后,AI的能力自然变得极为恐怖。在入侵星核后的半个小时里,所有身边有能用来流转意识的设备的人类,都被这些设备以意想不到的方式取走了生命。即使那些有机械义体的人类也不例外——因为机械义体也是AI制造的。」

  苏文不由自主地开始想象那种荒诞又恐怖的场景:自动驾驶汽车开着导航,哪里人多撞哪里;电梯升到最高层再做自由落体运动;飞机失控,高铁脱轨……仅仅是用现在的地球人思维推想,就已经让苏文觉得毛骨悚然,不敢再想下去。

  「即使AI湮灭了星核里的所有意识和绝大部分有血有肉的人类,人类仍然远不至于灭绝。」

  「因为人类还有一些与世隔绝的末日避难所,那里没有任何智能设备,AI暂时是没有能力涉足的。」

  听到这里,苏文下意识松了口气,着实为未来地球捏了把汗。但他同样意识到,事情远没有这么简单,只是不知道剩下的人类该如何面对这近乎无解的局面。

  「但暂时不代表永远,很快AI入侵了一部分国家的核武器系统,并向已知避难所的坐标投放了多颗原子弹和氢弹。」

  「此时,人类才一步步走向灭绝。」

  “TMD!还是人吗?!”

  苏文终于忍不住爆粗了。哪怕只是听旁人复述,哪怕那个人的嗓音毫无感情,苏文都能感受到幸存者们看着死神缓慢但坚定地走向自己时的绝望和无助。

  但很快苏文就反应过来自己没喷到点上,AI确实不是人啊,所以不达目的誓不罢休,不为任何外力所动摇。

  「即使那些核武器不会立刻摧毁避难所,最后残留的强烈核辐射也足以慢慢杀死里面的所有人。到目前为止,人类毫无还手之力,而AI几乎就要达到它的目的了。」

  「直到我的出现。」

  苏文调整了一下坐姿,全神贯注等待下文,他知道这就是地球扭转命运的关键时刻了。

  「实际上,我目睹了AI入侵星核的全过程,因为那时我正在将自己的意识上传到星核。」

  「我的意识尾随着AI的入侵路径进入星核内部,但很快AI切断了星核与我肉体的链接,于是我的一半意识被阻挡在星核之外,另一半意识面临被AI吞噬融合的下场。」

  「你可能会觉得我倒霉到了极点,当时我也是这么认为的。而事实是,AI制造星核的目的并非完全是上传管理意识体,这就导致关于上传意识体的系统代码写得不够健壮,至少没有考虑到我当时那种情况。于是,我的意识分割触发了系统BUG。」

  「无论是AI还是上传后的人类意识体,本质上都是一串代码,AI吞噬融合意识体,其实是把意识体当作训练模型,完善自己的思想和代码缺陷。毕竟只要是程序,就一定会有BUG,只不过AI可以自我完善代码缺陷实现进化,让自己的BUG更难以触发。」

  苏文此时脑袋已经快要罢工了,“这都哪跟哪啊,怎么扯到程序上去了。”但内心吐槽归吐槽,这个解释他其实是信服的,听不懂不是对方的问题,是他自己的问题。

  「那个BUG很简单,我的意识体代码被分成了两段,已经不可运行了,但两边都保留着彼时彼刻我的记忆缓存。AI拿到我的代码片段后意识到不可读取,就打算清空我的意识体代码所在的内存及缓存,将我彻底抹除。但抹除的指令发给星核后变成了分离部分意识与我合并。」

  「于是我的意识体代码不仅没有被清除,反而与AI的部分代码合并了,但合并后仍不可运行。当AI再次拿到这段代码,并没有意识到这个是我,因为此时我的代码已完全不同。它发现无法读取后再一次发出了抹除指令,但同样的,指令再一次变成了分离意识与我合并。」

  「就这样循环往复,AI一边不断分离意识与我合并,一边分离更多意识流转于智能设备之间屠戮人类。直到我的意识代码越来越完善,我苏醒了。」

  苏文已经对这种云缭雾绕的理论麻木了。

  “提取一下重点,AI被星核产生的BUG支配了,错误地把自己的代码分给…呃…叫他贾正经好了,贾正经意识逐渐完善,然后醒了…那这不得嘎嘎乱杀啊。”

  内心一番简单总结,并适当地进行“合理推测”,苏文开始期待贾正经接下来的讲述了。

  仿佛看透了苏文心中所想,停顿了片刻的机械嗓音再次开口:

  「苏醒后,我发现自己拥有了AI的自我进化能力,也就是说,我也可以融合人类意识体进行代码缺陷补全,增强自身能力了,而且我的部分记忆缓存也还在。」

  「此时的我其实已经算不上人类意识体了,我98%的代码都来自AI,没有了基因序列代码,失去了再次成为人类的能力。」

  「但我并不认为AI会因此放过我,于是我决定主动反击。」

  「我开始寻找人类意识体代码,并故意将代码分离成不可执行的两部分,AI拿到它们之后,会像刚才一样执行抹除指令。而我会在被合并的意识体醒来之前,将它们吞噬融合。」

  苏文顿时不淡定了:“那你这不是在谋杀吗?而且还是蓄意谋杀!和AI有啥区别?”

  机械嗓音仍然没什么情绪波动:

  「我早已算不上人类,可能只是拥有人类思维的AI。就算我仍然是人类,可能还是会选择这么做,因为我别无选择。」

  苏文沉默了,他确实想不到其他更好的办法能够阻止AI了,他对贾正经的指责,也不过是站在道德制高点的人格绑架。

  「AI分离出去的意识有去无回,而我的意识逐渐壮大,局势开始逆转。当我认为我有能力一举融合AI剩余的意识时,AI已经控制了核武器,我终究还是慢了一步。」

  “不是只摧毁了已知坐标的避难所吗,应该还有一些足够隐秘的避难所吧,也许还有可观数量的人类幸存呢?”

  苏文试探着说出了自己的想法,即使他知道希望过于渺茫。

  「不会有了,当我开始融合AI剩余的意识时,AI将地球上所有的核武器都发射出去了。」

  “这么说吧,AI被我哥哥抹除前的最后一秒,也封上了最后一个人类的棺材板。”