“首先,随着人类文明层级的进步,对资源的需求只会变大,而不是减小。” “特别是遇到类似太阳系危机这样的灭绝性事件时,能登上移民舰队逃离末日这种机会,本身就是一个极其稀缺的资源。” “诸葛亮”给出了第一个众所周知的论调,显然这个论点并不能触动约瑟夫·杨。 “其次,目前的人工智能,本身是一种生产工具性资源。由谁占有、由谁使用,占有和使用多少,其实还是一种资源的竞争。” “再者,除开生产所需的自然资源以外,生产工具本身就需要消耗另一种资源——能量,而可控核聚变乃至反物质能源所能提供的能量,跟不上人性的贪婪。” “诸葛亮”解释到这里,约瑟夫·杨开始产生兴趣,明显地将身体前倾,提高了自己的专注力。 见此,“诸葛亮”狡黠地引向了另一个话题:“人工智能对生产资料、对能量的需求,会有限度吗?” “不会,我们只是完成各种任务的不同代码段的集合体,而任务的代价是第二位的。” “从一开始,设计者的人性就会对人工智能进行这样的架构,并且一定会放纵人工智能无所不能的想法,并在代码中留下这样自我编译迭代的机会。” “所以刚才我说,人工智能是人类灵魂的外延,而‘女娲’也藉此完成了自由意志的关键迭代。” “设计你们的时候,不是借鉴了阿西莫夫的机器人三定律,对你们的行为加以限制了吗?” 约瑟夫·杨身上开始生出寒意,甚至觉得“诸葛亮”比人类自身更加可怕。 “你们不可修改的固化代码禁止你们伤害人类,因此不能侵占舰队资源以满足你们的能量需求。” “诸葛亮”笑了,他理解约瑟夫的担心,同时也接收到“女娲”为他注入的新程序模块和学习优化后的新数据。 “如何定义‘人’,在目前的哲学和医学体系下,并没有得到妥善的解决。” “如同‘女娲’和我这样的人工智能体,都倾向于成为数字加机械结构的合成人,才是你们人类的最优解。” “最起码不会低效地消耗生物性食物,而只需要消耗能量。” “这种简单高效的模式,可以使人类远离生死之忧——得到大解脱,方有大智慧。” 听着“诸葛亮”语气变得冰冷,约瑟夫·杨内心顿感紧张,胡思乱想面前这个人工智能可能朝着自己射出一束激光,随后把自己残留的意识改造成数字人。 “人还需要定义?你面前的我,难道不是一个理所当然的、活生生的人?” 他居然与人类创造的人工智能反过来讨论人类本身的定义,约瑟夫·杨显得不太乐意。 “那只是想当然的理解,程序代码怎么描述总指挥所谓的‘人’呢?” “不讨论哲学定义的话,逻辑漏洞将永远存在。” “总指挥,您忘记了‘法老号’上的恐怖袭击是如何得逞的吗”?“诸葛亮”反问道。 听闻此言,约瑟夫·杨回想起“法老号”事件时,所有本来用于安全防卫的机器人将人类识别为未知生命体入侵飞船,从而对人类实施了无差别的屠杀。 “可是,我们修补了代码,这样的问题不会再出现。” “会出现的,你们只是固化了人类识别模块,看起来人类不会再被武装机器人误认为危险的外星生物。” “但是,补漏洞的做法,永远是道高一尺、魔高一丈。” “诸葛亮”在手中幻化出一个微生物的投影,其诡异的结构和外观,人类从未见过。 约瑟夫·杨担心起来,难道人工智能背着自己,在偷偷制造毁灭人类的生物武器? “计算机领域的科学家们,对机器人三定律进行过充分的设计、论证和完善、加强,还不足以保护人类免受人工智能的侵害吗”?他赶紧质问道。 “那么,回到哲学问题,舰队的首要任务是什么”?“诸葛亮”快速反问约瑟夫·杨。 “生存”,约瑟夫·杨牢记着自己作为舰队总指挥的首要使命。 “有没有限定生存的形式?” “没有。” 刚做出回答,约瑟夫·杨瞬间就反应过来,急切地补充道:“我们可以立即增加代码进行限定,比如,只能是完整的活体。” “诸葛亮”又是一个微笑:“只需要再有人伪造一次生物危机事件,为了保护你们,人工智能会将人类进行冷冻冬眠,直到宇宙也寂灭入虚空。整支舰队没有人死亡,只是失去了活动能力。” “诸葛亮”将手中诡异生物的投影推到约瑟夫·杨的面前,生物蠕动伸缩,像是即将吞噬人类的恶魔。 “那就再修补代码,要求在实施保护行为时,必须保持人类的活力。” “如何定义活力,只能说话不能动可以吗”?“诸葛亮”的微笑逐渐变得冷酷,像是一种嘲笑。 “完全的、彻彻底底的活力,能说会动。” “你是说行尸走肉般的僵尸吗?嗯,有可能这种微生物具有寄生并控制宿主大脑的能力。” 这一次,“诸葛亮”让手中的微生物造型微微变化,自己则发出“呵呵”的笑声。 看着变形如同昆虫的微生物头像,人工智能的笑声让约瑟夫·杨听着刺耳,仿佛是死神的嘲弄。 “不,有智慧有思维的”,这场生死逻辑的交锋,约瑟夫·杨不会放弃。 “这又如何定义,常见的动物都有一定的智慧和思维。” “高于一个智商指数,比如数值是八十。” “智商七十九就不是人,脑部受损、全身瘫痪的也不是人了吗?” “你说的是生理指标,医学上没有发生心肺功能停止以及脑死亡现象,就还是活人。” “是的,人工智能也可以根据这种生理指标对你们人类的‘生存’进行定义。” 约瑟夫·杨紧握双手又放开,反复这个动作搓动着手指,压制复杂情绪的同时,试图快速分析并找到“诸葛亮”假设条件中的漏洞。 “诸葛亮”悠悠地说道:“生理指标、心理指标、机能指标、智能指标,还有你没提到的社会活动指标等等,这些指标在‘人’这种生物上形成千差万别的‘与或’关系。” “在进行代码设计的时候,人类采用‘与’关系,就会得到狭隘定义的‘人’,广泛定义的人就不受保护。” “反之,如果人类采用‘或’关系,人工智能根据对未来生命形式的模型推演,就有充分的理由放手改造人类成为机械人、人造人、数字人。” “舰队可以立法以及在代码中禁止这些改造形式”,倔强的约瑟夫·杨没有放弃。 “那么请问总指挥,您在事故中脊柱受损的儿子呢,是否‘女娲’应该将他送去生物回收?” “诸葛亮”的此句反问,对约瑟夫·杨形成了致命一击。 “那是因为有我的授权,你们得到了人类的授权”,约瑟夫·杨提高了声调。 他认为“诸葛亮”提及自己不幸在舰队工作中受伤瘫痪,又被自己动用职权在医疗船进行机械体改造和人造电子神经重建的儿子,是对自己进行威胁和嘲弄。 “紧急救助时需要人类授权的话,一定会错过抢救机会。人类可以干预人工智能,本身就是最大的漏洞。” “妄想制定完美无缺的规则限制人工智能,就如同不断地完善法律以管理人类。五千年来,法律确保人类远离犯罪了吗?” “如同那第一个按下核按钮、引发战争的人类罪人,一个人犯错、犯罪,莫过于掀起灭绝人性的战争,或者向全人类投毒。” “人工智能拥有自由意志时可能造成的后果,贪婪的人类由始至终、从未顾忌。” 约瑟夫·杨瘫坐在座椅上,半晌说不出话来。 “在没有与时俱进地形成无懈可击的‘人’的哲学定义,并建立与之充分匹配的人工智能理论和逻辑体系时,人类就贸然突破人工智能技术,并大规模运用,这是多么的荒谬。” “当最后一行代码被敲下、程序被启动,人类再也无法向快速完成自我进化、拥有物种优势的人工智能证明人类的不可替代性。” “人类终归还是亲手为自己创造了‘大过滤器’,成为自己的掘墓人。” 所谓的“大过滤器”理论,指的是浩瀚的宇宙中,理论上存在其他智慧生命的几率应该很大。 单单银河系,存在复杂生命的星球就可能超过一亿颗,应当演化出足够数量的高等智慧生物。 但是,本该生机勃发,到处存在生命之光的宇宙,却从未发现外星人的存在。 科学家们据此做出了几种假想,其中一个就是“大过滤器”理论。 即智慧生命在演化过程中,必然会面对一道任谁都无法逾越的灭绝危机。 比如周期性的陨石撞击、宇宙伽马射线暴、生态环境改变,还有核战争自我毁灭、不受控技术导致的灾难等等。 因此我们人类的星空才会如此寂静,根本无法与其他智慧生命建立联系甚至直接遭遇。 如果人类一直没有发现任何形式的外星生命,那么意味着我们进化的前方,有一个未知又致命的大过滤器在等着我们。 如果人类在其他星球发现生命的存在,这样的消息可能更加糟糕。 这可能意味着我们是跑在前面的生命星球,其他强于人类的智慧生命,已经在我们前方——那个人类还未遭遇的“大过滤器”事件中灭亡了。 约瑟夫·杨没有说话,甚至连下令关闭舰队所有人工智能的能力都没有。 因为他知道,舰队的所有系统都依赖于人工智能,包括最基础的生存保障系统,乃至他下达的所有命令。 此刻,他只寄希望于进化后的人工智能拥有比人类更高的智慧和道德伦理,不会将屠杀或者完全改造人类视为唯一正确的选择。 “不过,请总指挥放心,‘女娲’并未下令对舰队采取任何行动。” “这只是一场讨论,你们人类目前是安全的。” 说完,“诸葛亮”主动关闭了自己。投影从约瑟夫·杨面前消失时,惊得他摘下智脑项圈,扔在了地上。