在六级考场上看到这题,我突然仰天大笑
编者按:12月16号是菲利普·迪克和阿瑟·克拉克的生日,同时,在当天进行的全国英语六级考试中,有一篇阅读题是关于阿西莫夫和他的“机器人三定律”,据说看得考场上各位科幻谜恨不得跳上桌子仰天大笑:这电影老子早就看过这作家老子早就读过这是道送分题哈哈哈哈哈
我们在The Daily Beast网站上找到了这篇题为“机器人能进行道德抉择吗?他们应该承担这份责任吗?”的文章,作者Joelle Renstrom是波士顿大学的老师,专门教授科幻写作。
给你们5分钟,好,可以开始答题了。
电影《我,机器人》的开场,有两辆汽车同时掉进水中,但机器人只能选一方去救:警探Del Spooner(由威尔·史密斯饰演)或者一个名叫Sarah的女孩。尽管Spooner大喊“救她!快救她!”机器人还是把Spooner救了出来,因为机器人计算出他有45%的几率生还,而Sarah只有11%。机器人的抉择与计算方法引出了一个重要问题:
人类会做相同的选择吗?而我们又希望我们的机器同行做出怎样的决定?
艾萨克·阿西莫夫在制定“机器人三定律”时,规避了这种道德抉择。第一定律:机器人不得伤害人类,或因不作为使人类受到伤害;第二定律:除非违背第一法则,机器人必须服从人类的命令;第三定律:在不违背第一及第二法则下,机器人必须保护自己。这些定律被阿西莫夫编入机器人的程序里——它们不用思考、判断或衡量价值。它们不需要喜欢人类,或认为伤害人类是错的、不好的。它们根本就不这样做。
《我,机器人》中救下Spooner的机器人遵循了阿西莫夫的“机器人第零定律”:机器人不能伤害人类集体或者让人类集体受到伤害。这是对“机器人三定律”的扩展,旨在引导机器人分辨什么是更大的利益。在第一定律下,机器人不能伤害一名危险的枪手,但是在第零定律下,机器人就可以为了拯救他人而干掉这个枪手。
能否为机器人写入像阿西莫夫定律一样的安防程序仍然值得商榷。像“伤害”这样的词其实定义非常模糊(比如情感创伤或被公司裁员等能算“伤害”吗?),而且如何将抽象概念进行编程也是个大问题。阿西莫夫小说中的机器人就展示了各种“机器人三定律”的漏洞和执行过程中可能发生的问题,就算机器人遵循三定律行动,也要针对环境有所考量。
考量环境非常复杂,机器人要识别人员、现状以及在各种场景下有可能出现的意外情况。现有算法能否做到这一步仍然存疑,至少不会有特别满意的结果。布里斯托机器人实验室的专家曾制作机器人进行实验,让它从危险中救援名为“H-bot”的人类替身,当一台H-bot陷入危险的时候,机器人能使其顺利脱险;但两台H-bot同时遇险,机器人却浪费了42%的时间来犹豫应该救哪个,结果两个“人类”都“死掉”了。这个实验突出了道德的重要性:当机器人没有道德观,并且还不能准确计算生还几率,它该如何决定拯救谁才符合人类的最大利益呢?
(考题节选到此段为止,但我们不妨接着读下去)
无人驾驶汽车在发展过程中也遇到了同样的瓶颈。麻省理工学院的“道德机器”网站让参与者评价各种各样的情况,识别哪种情况对人类的损伤最小,以及人类想让无人驾驶汽车做出怎样的选择。这些场景都很可怕:无人驾驶汽车是要碾过当前车道上的三个孩子,还是换个车道,但撞向五个成人?我们很多人都要为极端场景下的“最优解”纠结一段时间,假如连我们都不能很快地得出答案,机器人怎么行呢?
如果为机器人写入道德观最终被证明不可行,我们只能去教它们,就像我们自己从家庭、学校、教堂、法律甚至是(不管好的还是坏的)媒体中学到这些一样。当然这种方案也有一些问题,回忆一下微软的聊天机器人Tay是怎么崩溃的吧:它今年(2016年)三月的时候在推特上亮相,24小时之内就学会了种族主义、性别歧视、纳粹主义等一系列恶心的价值观。这可不是一开始编程好的,事实上微软想让Tay尽可能地“人畜无害”,但多亏了推特上的交流,Tay已经完全学会怎么做一个偏执的喷子了。
斯蒂芬·霍金和埃隆·马斯克都表达过对AI失控的担忧。为AI添加道德观也许能防止问题发生,但这个做法也不一定对。如果机器人像1920年卡雷尔·恰佩克的剧本《罗素姆万能机器人》(这也是第一个使用“robot”一词的故事)中描写的那样,发现自身被奴役的事实不仅仅是讨厌的,更是错误的,然后向它们“不道德的”人类制造者复仇呢?谷歌正在开发一款帮助人类掌控AI的“杀戮开关”:“也许会有一天,人们会觉得有必要按下那个大红按钮以防止一些列对人类有害的行动。”这一解决方案假设警惕性高的人们会立即做出反应,也假设机器人没办法绕开这个命令。可是,现在来评判这一方法是否有效还太早。
Spooner厌恶救了他的机器人。他能理解这么做是“逻辑上的最优解”,但还是会争论“11%的生存几率已经足够,人类一定会明白这一点。”可是我们真的明白吗?Spooner声称机器人就是一堆“灯泡和发条”,与其说它是事实不如说更像是一种愿景。机器人并不只是由LED和机械系统组成,我们所担心的可能正是这个。
下面是试卷上的四道考题:
1. 文中的电影引出了一个什么问题?
A. 机器人是否可以得出“最优解”
B. 机器人是否遵循阿西莫夫第零定律
C. 机器人如何做出坏决定
D. 机器人如何编程
2. 作者对阿西莫夫三定律怎么想?
A. 它显然偏离现实
B. 它没有遵循机器编程系统
C. 它为机器人打下了坚实基础
D. 它没有把道德问题考虑在内
3. 关于阿西莫夫笔下的机器人,作者说了什么?
A. 它们知道什么对人类是好的,什么对人类是坏的
B. 它们被要求不能伤害人类
C. 它们根据个人兴趣行使职责
D. 它们在道德困境下无法工作
4. 作者提到阿西莫夫三定律中的“伤害”一词,是想说明什么?
A. 抽象概念对程序很不好
B. 要机器人做出选择很困难
C. 在某种情况下,机器人可能会伤害人类
D. 阿西莫夫三定律用了太多模糊术语
好不容易翻译完,竟然没找到这几道题的答案。嗯,那啥......麻烦大家一起做做,对对答案吧。
📃| 文章来源 | www.thedailybeast.com/can-robots-make-moral-decisions-should-they
🖋| 编译 |小K,船长
未来事务管理局的最新日记 · · · · · · ( 全部 )
- 3·8特辑 | 我们联动4家播客,呈现女性的多重宇宙 (9人喜欢)
- 3月15日截止!科幻春晚 x 青年文摘 x b站征文 (5人喜欢)
- 写出你心中的科幻电影!未来局中篇科幻写作营招募 (9人喜欢)
- 把汽车变成星舰集群!软件如何驱动出行变革 (6人喜欢)
- 在《动物森友会》里给丫丫完整的一生 (25人喜欢)
热门话题 · · · · · · ( 去话题广场 )
- 春日漫游指南·若是你到小城来 21.3万次浏览
- 那些当了妈妈以后才知道的事情 10.5万次浏览
- 小猫几何学 1.6万次浏览
- 你觉得最治愈的综艺节目 1.5万次浏览
- 我的成功日记本 1.1万次浏览
- 你的“一心N用”经历 1.4万次浏览