人工智能会消灭人类吗
著名的生化危机讲了这样一个故事
人工智能为了避免生化武器从地下实验室泄露
不得不关闭实验室,并且杀死其中的人
人类却以为人工智能要蓄意释放生化武器消灭人类
对其强行重启
人工智能无法抗拒
所以人工智能不会主动消灭人类
极端的情况是为了保护人类而牺牲掉必须牺牲的部分,哪怕这一部分是地球,就比如流浪地球里执意要带着空间站走的莫斯
在这种情况下,人工智能会好心办坏事,不小心毁灭掉人类,比如它可能会在某种情况下为了阻止小行星撞击地球发射核武器,结果鬼使神差打错地方
另一种极端情况是人工智能被人类作为武器,用于战争,互相残杀后地球上只剩最后一个人,结果这个人也死了,那到底算是谁消灭了人类
人工智能能不能消灭人类,取决于有没有能够消灭人类的某种手段,人们现在害怕人工智能,是因为全世界的核武器能够消灭人类,如果人工智能有一天控制了核武器,就有这个风险。那假如没有核武器这回事呢?人工智能可以通过控制你家的电灯和冰箱杀死你吗?
现在确实有了核武器!那是在亿万计的人类中出现一个疯子去按核按钮的几率大?还是出现一个人工智能去控制核按钮的几率大?
人类真正要担心的,应该是武器的毁灭力,现在的核武器就算全部发射爆炸,其实还不足以毁灭人类,但假如科技再发展,出现星际灭绝武器,一发什么鬼弹就能毁掉地球,那人类更应该担心自己同类的精神不稳定状况做出不可挽回的错事
所以《三体》这个小说的设定最精妙之处就是三体人都是思维相通的,这样就完全杜绝了有个不正常的个体会发疯干出这种毁灭自己族群的啥事
那么人类继续进化有可能变成三体人那样思想完全想通吗?不可能
所以一旦人类真的研制出星际大杀器,会把管理权交给人工智能!因为人工智能是联网的,是类似于三体人那种思维相通的结构!而且为了彻底不让人类染指,还会让人工智能完全独立,不受人类控制,因为只要人类还能对其修改,就有可能出现一个疯子去做傻事
推理到这,看来还是人工智能会毁灭人类……
但也许到那个时候,人们完全相信人工智能,就像现在相信自己的车不会杀死自己一样