超人剧变即将来临:后人类时代生存指南BY弗诺·文奇

Apollonius

来自:Apollonius(ancient) 组长
2010-11-08 21:21:44

×
加入小组后即可参加投票
  • Apollonius

    Apollonius (ancient) 组长 楼主 2010-11-08 21:22:15

      超人剧变能够避免吗?   嗯,也许它根本就不会发生:有时我试图想象出一些表明超人剧变不会发生的征兆。彭罗斯和希尔之间关于人工智能能否实现的争论受到了广泛的关注。1992年8月,思考机器公司召开了一次研讨会来探究“我们如何才能制造出能够思考的机器”这一问题。从研讨会的名称你们也许就能猜出,参与者并不是非常反对人工智能实现的可能性。实际上,大家一致认可“意识能够在非生物的基础上存在”,“对意识的存在起至关重要作用的是运算法则”。不过,对于大脑器官中天然的硬件功能,大家仍存在争议。   少数与会者认为,1992年人类制造出的最大型的计算机的运算能力与人类大脑的差距在三个数量级以内。大多数与会者则同意莫拉维克的估测,认为计算机的运算能力要在等到十到四十年才能与人脑抗衡。还有另外一部分人支持,单个神经元的运算能力也许远远超过大家普遍的认识。如果是这样的话,目前我们电脑的运算能力与我们头脑的差距就高达十个数量级(就此而言,彭罗斯和希尔的争论是正确的),我们也许永远见不到超人剧变。取而代之的是,在二十一世纪初,我们将会看到硬件性能提升的速度开始变得平缓—这是因为我们无法取得足够的设计自动化来支持硬件性能的进一步提升。 我们最终得到的将是一些非常强大的硬件,但却没有能力将它进一步向前推进。商业数据信号处理也许很令人敬畏,能使数字运算看起来就像是模拟运算,但没有任何东西会觉醒,也不会出现超人剧变的必要条件—智能爆炸。这个时期可以被视作黄金时期,这也将是进步的终结。这很像冈瑟·斯坦特的预见,在《即将来临的黄金时代:对发展终点的展望》一书的第137页,斯坦特清楚地谈到超人智能将是打破这种状态的充分条件。 但是,如果超人剧变可能发生,那它就会发生。即便世界上所有的政府都意识到这个“威胁”,并且感到极度恐惧,整个进程也将继续下去。在小说中,有些故事曾描写人们通过法律禁止制造“拥有类似人类头脑的机器”。但是即使,竞争这个特征存在于能够促进自动化控制的各个领域,包括经济、军事,甚至艺术。它的影响力如此强大,以至于如果通过立法或者设限来禁止这类事情的发生,只会导致他人捷足先登。 麻省理工学院的埃里克·德雷斯勒对技术进步的前景提出了令人惊叹的预测。他赞成超人智能可能在近未来出现—这样的实体将对人类的现状造成威胁。但德雷斯勒辩称,人类能够限制这类超人设备,超人设备及其影响可以受到检验,并且加以安全使用—这就是I·J·古德的超级智能机器,它增加了防护设备。我认为这种限制本身就是不切实际的。至于说到物理限制:想象一下你自己被关在家里,跟外界的主人只有有限的数据连接。如果主人的思维比你慢一百万倍,那么毫无疑问,经过几年时间(你的主观时间),你就能在给主人提供“有用的主意”的同时把自己放出来。(我把这种依靠快速思维取胜的超级智能叫做“弱势人工智能”,这样的“弱势人工智能”很可能在几周以内就耗尽了生命周期。) “强势人工智能”要比仅仅加快运算速度复杂得多。很难准确地形容“强势人工智能”会是什么样,但这种差异会很明显。想象一下,将狗的思维速度大幅提高,这样的狗活一千岁能产生出人的思想吗?(如果现在对狗的思维进行重新整理,然后再让其高速运行,我们也许能看到不一样的事情。)很多对超级智能的想象似乎都是基于“弱势人工智能”。我相信我们对超人剧变以后世界的想象最好基于“强势人工智能”本质的思考。 另一条对人工智能进行限制的途径是在已经制成的超人智能实体中建立规则(例如阿西莫夫的“机器人三大定律”)。我认为任何足够严格,并且能够生效的规则也会导致受限实体的能力明显低于那些更具危险性的实体)。不过,阿西莫夫的梦想也非常令人赞叹:想象一个听话的奴隶,它各方面的能力都比你高一千倍。想象一个能够满足你各种良好愿望的家伙,而且它剩余百分之九十九的时间还能从事其他各种活动。我们将面对一个我们以前从没真正理解过的新宇宙,而且充满了仁慈的神灵(尽管我的一个愿望是成为它们中间的一员)。 如果超人剧变无法被阻止或加以限制,那么后人类时代会糟糕成什么样子呢?嗯·····相当糟糕。人类从地球上消失是其中的一种可能(或者像埃里克·德雷斯勒对纳米技术的评论:有了这些技术,也许政府完全可以断定他们不再需要公民了!),但并非是最可怕的一种可能。让我们再打一个比方:想想我们与动物的关系。倒不是说超人智能实体会从身体上虐待我们,但是,像人类这样具有自我意识的自动装置在某些低层次的应用领域有实用价值,比如成为大型智能实体中负责较低级功能的、具备自我意识的程序—“强势人工智能”很可能由一个智能群体组成。 某些这样的人类部件也许只会被用来进行数据信号处理。他们将更像鲸,而不是现在意义上的人类。其他的人类也许更接近人类智能,但却只保留大脑能力的一个方面—在我们的时代,这种偏向会把他们送进精神病院。不过,这些家伙中没有一个 算得上是有血有肉的人类,在新的世界中,他们可能是最类似于我们目前所谓的人类的家伙。(I·J古德对此有一些说法,尽管在此刻看来,这个建议显得毫无意义:古德提出了一种“梅塔-黄金定律”,它可以被解释为“善待比你低级的物种,正如你需要比你高级的物种的善待”。这是个美妙而又荒谬的主意—我的大多数朋友都不相信这个定律,因为理论上的回报是如此难以确定—但如果我们遵循这个定律,从某种意义上也许能够解释这样的友善存在的可能性。) 以上我已经论证了我们无法阻止超人剧变,它的来临是人类天生的竞争性和科技固有的可能性的必然结果。不过,我们仍然是始作俑者。即便是最剧烈的雪崩也是由微不足道的小事引起的。我们有创建初始条件的自由,可以让事情朝着较为有利的方向发展。当然(就像引起一场雪崩一样),也许真正的触发因素我们并不十分清楚。

  • Apollonius

    Apollonius (ancient) 组长 楼主 2010-11-08 21:22:42

     通向超人剧变的其他方式:智能放大 当人们说到创造超人智能实体时,他们通常想象的都是人工智能工程。但是我在论文的开头就提到了,还有其他通向超人剧变的途径。计算机网络和人机交互界面似乎比人工智能更加寻常,但它们都可能导向超人剧变。我把这种另外的途径称为智能扩大(IA)。智能扩大的发展非常自然,在大多数情形下,甚至连它的创造者都没有察觉到。不过,每一次我们获取信息和向他人传输信息的能力得到提高,从某种意义上来说,我们就是将天然智能提升到了新的层次。比如现在,一个博士小组和一个好的计算机工作站(即便是没有联网的工作站)可能就已经超越了迄今为止任何一种智能测试。 跟纯粹的人工智能相比,只能扩大很可能是通向超人智能实体更为容易的途径。人类存在本身就意味着最为困难的问题已经得到解决。从我们自身内部开始发展应该比先分析出我们到底是什么、然后再造出与之相同的机器要容易得多。这条途径至少有一个理论上的先例:凯恩斯-史密斯曾猜想生物生命是由基于晶体生长的更加原始的生命发展出来的;林恩·马古里斯则曾极力辩称共生现象是进化到一种强大推动力。 请注意,我并不是说人工智能研究可以被忽略或者削减研究费用。人工智能所取得的成果通常都可以用于智能扩大,反之亦然。我是说我们得认识到,在网络和人际互动界面研究中,有些东西跟人工智能一样意义重大。有了这种看法,我们也许会重视一些新的工程,它们并不像传统的界面和网络设计工作一样直接且实用,但却能推动我们沿着智能扩大的方向向超人剧变前进。 在考虑到智能扩大之后,以下是一些有着特殊意义而且具有可能性的工程。 人机小组自动化管理。用来解决那些通常纯粹依赖计算机的问题(例如爬山算法),设计使用的程序和界面,结合人类的直觉和电脑的硬件能力。考虑到更高级的爬山算法的棘手性质(以及为此设计的精妙算法),人类成员将获得非常有趣的演示和控制工具。 用于艺术创作的人机共生体。将现代计算机的图像生成功能和人类的敏锐感知能力结合起来。当然,人们花费了大量劳动来设计为艺术家服务的辅助计算机,以节省劳动力。我的建议是我们直接把目标锁定在更大范围的融合上,实现最有助于协作的方式。 允许人机联合团队参加棋类比赛。我们已经拥有棋艺超过绝大多数人类的程序。但是在怎样利用这些程序来改善人类思维水平方面我们又做了多少呢?假如这样的小组至少被允许参加某些棋类比赛,那么其对智能扩大方面所起的积极作用,就和允许计算机参加棋类比赛对人工智能研究所起的推动作用一样。 发展不需要人类待在某个固定的地方(比如坐在电脑前面)才能使用的人机界面和网络接口。(这是智能扩大研究与经济利益最直接挂钩的地方,因此在这方面聚集了大量人力物力。) 发展更对称的决策系统。近几年的一个热门领域就是决策系统。这是智能扩大的一种形式,但人们也许过于关注建造近乎全能的决策系统。重要的是,在电脑程序给予用户信息的时间,用户也应该反馈给程序足够的信息与指导。 利用本地网络让人类小组更高效地工作(即整体效率高于每个单独的个体)。这个项目基本属于“群组”范畴,在商业方面已经是一个非常受欢迎的领域。我的观点与之不同的是,将族群活动看成联合有机体。从某种意义上来说,这样的观点可以被等同于为这种组合操作制定“议会程序”。例如,小组的集中力也许比传统的会议模式更容易维持。单个成员的技能可以与个人问题隔离,整个小组的重心集中在团体项目上。当然,利用共享数据库比传统委员会操作方式更便捷。(注意这样的方式使用与团队合作而非政治会议,在政治环境当中,以上提及的自动化操作会导致制定规则的人的权力得到加强。 开发世界性的互联网,使其成为人机结合的工具。在这里列出的所用项目当中,这一方面的进展是最快的,而且也许能最早把我们推向超人剧变。即便是当今互联网的力量和影响,也被大大地低估了。例如,我认为如果不是USENET这个“群体大脑”给整个系统提供管理,为用户提供支持,那么我们现在的电脑系统就会在自身复杂性的重压下崩溃掉。世界范围内互联网的混乱无序就是这种潜力的证据。随着链接度、带宽、文件大小与处理器速度全面大幅提升,我们将看到林恩·马古里斯所描述的生物圈奇观,不过,这次是数据处理器的版本,以百万倍的速度,加上上千万个人类智能体(即我们)。   以上我举例说明了可以在现代电脑科学技术下进行的研究。还有其他一些范例。比如,人工智能和神经元网络方面的研究都可以从与生命科学相近的研究中取得帮助。相关的科学研究不只是简单地试图通过计算机模拟来理解生命,还可以转向依赖生物生命的综合系统,这种综合系统依赖生命体提供向导,或者提供某些我们还没有充分理解的特殊能力,这些特殊能力我们还未能以物理硬件的形式实现。很长时间以来,科幻小说的一个梦想就是制造大脑与计算机的直接交互界面。而实际上,在这个领域已经有完成的具体研究(或者正在进行)。 肢体修复本来就是可以直接商业应用的主题之一。从神经元到硅板的传感器都可以人工制造,这是人机通讯就快实现的令人兴奋的一步。 直接在大脑植入连接似乎是可行的,只要数据流量够低—由于人类大脑的延展灵活性,可能不需要精确确定数据输入的具体神经元目标。即使每秒一百万比特的数据流量都能很好的帮助中风患者,否则他们只能依赖菜单选择形式的界面程序。 将计算机插入视神经主干部位,则有高达每秒1兆的流量潜力,但首先我们要了解视觉机制的最微观结构,并且我们得极其精确地重置一个庞大的电极结构。如果我们想要利用这种高带宽来改进显存大脑的结构,那么问题就会变得更加错综复杂,仅仅把一个高带宽接收器附着在大脑里是远远不够的。设想在大脑发育过程比如胚胎发育及阶段中植入这些辅助器械。 动物胚胎实验。我不期望这类研究在早期阶段就会成功,但尝试让发育中的大脑接触模拟神经结构的实验,对于研究胚胎大脑发育奥秘的科学家而言会相当有趣。最后,这些实验也许能使动物增加其他的感知途径,或是其他有趣的智能。   我本希望针对智能扩大的讨论可以提出一些通往超人剧变的更加安全的途径。(比较智能扩大的途径允许我们人类参加。)可是天哪,回顾了这些关于智能扩大的提议,我唯一能够确定的就是它们需要我们加以考虑,他们也许能给人类更多的选择,但说到是否更安全的问题—有些建议从表面上看起来更加令人惊恐不安。我的一位非正式评论家指出,对个人而言 ,智能扩大会创造出用心险恶的精英分子。我们人类承载了数百万年的进化烙印,我们把竞争看作是一件非常残酷知名的事情。这样的残酷现在今天看来是不必要的,失败者可以很快学会成功者的技能,成为成功者团队中的一员。一个凭空制造出的个体也许要比那些核心是尖牙与利爪的人类友善得多。即便从平等的观点来看待互联网与它的用户们,共同觉醒这样的事也是一个梦魇。 问题不只是超人剧变代表了人类退出历史舞台的中心,而且它还挑战了我们内心最深处关于存在的信念。我想,对“强势人工智能”的进一步审视能告诉我们个中原因。  

  • Apollonius

    Apollonius (ancient) 组长 楼主 2010-11-08 21:23:06

     “强势人工智能”以及我们所能企求得最好结果 想象一下,加入我们能够调整超人剧变,加入我们能让最大的奢望变成现实,那样的话我们将企求什么:企求未来的超人仍是人类的继承者,企求我们对自身本性的人士将让一切不公正的事情受到遏制。对那些没有成为超人的人来说,他们将会受到仁慈的对待(也许甚至让那些滞后者感觉自己成为了神灵的主人)。这是个仍在不断向前进步的黄金时代,长生不老(至少是在我们能让宇宙存在的时间内)将成为现实。 但在这个光明而友善的未来世界当中,哲学问题将变得越来越迫切。一个容量保持不变的头脑无法永远生存下去,经过几千年之后,它越来越像一盘不断重复的磁带,而非一个人类。要活得无限长,头脑本身必须不断成长。当它变得足够强大,在回顾以往,对它最初的自己该会充满怎样的同情?当然,成长后的头脑仍然是原先那个头脑,但它本身增加可多少内容啊。所以,仅就个体而言,凯恩斯-史密斯和林恩·马古里斯关于新生命逐渐超越旧生命的概念仍是有效的。 关于长生不老的“问题”体现在其他更加直接的方面。关于自我和自我意识的概念是上几个世纪最务实的理性主义的基础,但现在,自我意识的概念收到了人工智能研究者的攻击,智能扩大从另一个方面削弱了我们的自我观念。超人剧变之后的世界将充满极高带宽的网络。强势人工智能的核心特征将是它们通过不同带宽进行交流的能力,包括远高于语言和文字信息的交流方式。当自我的一部分可以被随意地复制和融合,自我意识能够扩大或缩小以适应需要解决的问题,那个时候会发生些什么?这些都是“强势人工智能”和超人剧变的一些核心特征。仔细想想,你会感觉到超人剧变之后的世界将会是多么的奇异,不论它看起来是多么的友善和睿智。 从一个角度来看,这样的前景满足了我们最乐观的展望。永恒的生命,在其中我们能真正相互理解,洞悉最深层的奥秘。但从另一个角度来看,这种前景又很像我在前文中想象过得最糟糕的情景。 哪一个才是正确的看法?实际上我想,新的时代太过奇异,无法用好与坏的传统标准来加以定义。这个标准是基于由少量数量稀少的低带宽线路连接起来、彼此孤立、自我不可分割的头脑组成的群体社会之上的。但超人剧变过后的世界完全契合与长久以来一直存在的变化与合作传统。我想在这样的时代,一些道德观念仍然是适用的。对智能扩大和高带宽连接的研究将改善有助于这种理解。我现在仅仅看到了这一切萌芽的曙光。我们有古德的梅塔-黄金定律,也许我们还有基于带宽链接度的区别自我的方法。跟过去相比,头脑与自我将更加动荡不安,我们所珍视的很多东西(比如知识、记忆与思想)不能丢弃。我想弗里曼·戴森说对了:“神就是意识远远超出我们的理解范围之外的存在。”    1993年,弗诺文奇在美国国家航空航天局(NASA)路易斯研究中心举行的一次讨论会上发表了这篇论文,它刊载于同年的《全地球评论》(Whole Earth Review)杂志上。在这篇论文中,文奇系统地阐述了自己的“超人剧变”理论。  2008.11科幻世界译文版下半月版

你的回复

回复请先 , 或 注册

170 人聚集在这个小组
↑回顶部