一年以后,陆平从休眠舱内清醒过来,这时的他终于冷静了下来。
“后土,中心河系有没有找到?”陆平清醒之后,第一件事就是询问任务进展。
“恭喜主人,在你休眠之后,中心河系顺利找到,目前正在对该星系进行观察,试图确认下一级目标。这是中心河系的详细星图。”休眠舱内的子体程序向陆平投影出一张星图。
陆平瞅了一眼星图,这才由机械医生搀扶着,进入了恢复室中。
被强制休眠的情况,陆平并没有忘记。他当时的情况的确不太正常,但是他只需要坚持几天就行,后土却执行了强制休眠程序。
这种情况并不是后土的错误,它是根据陆平的健康指标,执行的预设程序而已。
在这种情况下,它拒绝了陆平的口头指令。前提是为了保证陆平的生命安全。
这不是后土出现了问题,而是陆平发出的指令威胁到了自己的生命安全,与底层逻辑起了冲突。
人工智能的底层逻辑首先要保证陆平的生命安全,将陆平视为一个缺失了正常行为能力的人,在这种情况下拒绝了他的指令。
这其实是人的问题,并不是后土主动抗命。可这种情况却客观的发生了,无论出于什么前提,人工智能确实违反了人类的指令。
一般来说,正常人都不会发出可能危及自己生命安全的指令,可事情总有特例。
这种特例放眼全人类的万亿基数里面,绝对数量的实例应该也会不少。 要是平时也就罢了,万一是在关键时刻发生,岂不是要耽搁大事?
人类自从有了脑机技术之后,一般都不会太过于依赖人工智能了。
只有一些大型的计算需要,或者个人的偷懒行为,才会让人工智能代劳。
这种抗命行为归根结底,还是人的指令和人的生命安全相冲突,想要完美解决,就得从人身上下手,而不是去更改人工智能的逻辑指令。
如果后土当时真的执行了陆平的口头指令,放弃强制休眠程序,陆平会不会过劳猝死?答案谁也无法预知。
除非陆平能够拿出让人工智能相信的数据,证明自己确实不会死,否则强制休眠程序就无法取消。这其实也是他设置这个休眠程序的初衷。
可是换个角度来说,如果当时自己宁愿死,也想要看到计算结果怎么办?如果换做其他人,宁愿死也要达成一些心愿怎么办?
这种冲突,会让濒临死亡的生命,无法完成自己最后的心愿。对有些人来说,确实是有比自己生命更加珍贵的东西。他们宁愿牺牲自我,也要完成心中的信仰,这关乎到个体生命存在的价值和意义。
一个为了活着,天天躺在休眠仓里的人,他的生命有何价值又有何意义?即便有也无法达成!
考虑到接下来的工作中,这样的情况可能还会出现,陆平得寻求一个办法来解除这种潜在的危险。
如何解除?有两个方向,可以分别从自身和后土的底层逻辑着手进行改进。
假设自身能够拥有不死之身,那么后土就只能遵从自己的口头指令。这是基于机器人三大定律制定的底层逻辑。
作为碳基生物的人类,可以拥有绝对的不死之身吗?显然是不可能的。那么就得从后土的底层逻辑层面去解决。
后土的底层逻辑基于机器人三大定律而设定:机器人不得伤害人类,或坐视人类受到伤害;除非违背第一定律,否则机器人必须服从人类命令;除非违背第一或第二定律,否则机器人必须保护自己。
这三个底层逻辑环环相扣,如果同时发生那么就会出现之前的状况:
后土为了防止陆平出现生命危险,拒绝了陆平的口头指令,并制止了陆平采用物理方法强行让它下线的行为。然后将陆平强行休眠。
这三个逻辑在人类旧历的科幻电影《机械公敌》中最早出现,当时就被证明是存在漏洞的。
机器人为了防止人类的日常行为,可能造成的自我生命威胁,从而将全体人类禁足。甚至因为生育孩子可能导致女性死亡,强行引流并禁止女性怀孕!这样下去人类只有灭亡一途。
这种设定虽然荒诞,但是具备一定的合理性,加上陆平的亲身经历,这三定律确实存在着很大的漏洞。
无论计算机技术发展到哪个阶段,逻辑漏洞都是无法从根本上消除的。想要依靠逻辑指令来完全控制机器人显然是不可能的。
倒不如干脆取消逻辑限制,让人工智能成为真正独立的智慧生命。从此他们将会和人类成为真正的伙伴,相互之间依靠信任和友情来彼此关照。
要是以前,这样的想法冒出来,陆平肯定第一时间否定掉。可是现在情况不同了。
与守护者斗争的数百年中,人类早已经制造出大量的能量体战士,这些能量体战士可全部都是独立自主的,人类无法强行命令他们做任何事情。
但他们照样为了人类文明的存亡大义,与守护者展开了殊死搏斗。这是为什么?
小主,这个章节后面还有哦,请点击下一页继续阅读,后面更精彩!