您现在的位置: 首页 > 网站导航收录 > 百科知识百科知识
阿西莫夫的机器人三定律有哪些漏洞?
机器人,阿西莫夫,定律阿西莫夫的机器人三定律有哪些漏洞?
发布时间:2019-02-08加入收藏来源:互联网点击:
阿西莫夫的机器人三定律有哪些漏洞?
回答于 2019-09-11 08:43:50
回答于 2019-09-11 08:43:50
第一法则:机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;
第二法则:除非违背第一法则,机器人必须服从人类的命令;
第三法则:在不违背第一及第二法则下,机器人必须保护自己;
第零法则:机器人不得伤害人类这族群,或因不作为(袖手旁观)使人类这族群受到伤害。
将其形式化,R代表机器人,H代表人类,A代表优先级
1.1 R not harm H (AAA) 1.2 R not watch H harm(AAA)
2.R listen to H (AA)
3.R protect R (A)
0.R not harm Hs
首先,逻辑漏洞是一大堆的。阿西莫夫设置机器人三定律并不是为了给机器之心立法,而是为了通过一系列看似逻辑严密的规则说明规则与逻辑并不适用于所有情况。在阿西莫夫的 I ,Robot 的情节里就有很多三定律互相抵触的情况。
通过形式化的命题来看,3+1定律都是绝对律令(不能做什么),并且赋予了不同优先级。所以,可以说在任何两个定律出现矛盾时,选择高优先级定律就是必然。尤其是定律3的低优先级让机器人在任何涉及人类指令的情况下难以自保。换句话说,机器人永远无法先考虑自己。这是阿西莫夫对“人类中心主义”的一种讽刺。
当机器人的主人伤害其他人类时,机器人必须阻止主人(1.2),但是若因此误伤主人(1.1),说明1定律内部会出现矛盾。
当人类伤害机器人时,机器人需要保全自己。但若人类命令其停止保护(2),机器人则无他法。
当人类欺骗机器人去伤害他人时(若机器人没有检测出这种欺骗),那么机器人相当于把2的优先级置于1前。
尚不清楚定律0的优先级。但是若人类个体伤害人类群体,机器人必须在1和0之间做出抉择时,必定造成优先级困境。
阿西莫夫机器人三定律中隐含圣经“十诫”中的影子。如“不可杀人”。这些绝对律令并不能防止机器人在所有的情况都做出“正确的”判断。换句话说,完全“正确的”判断是情境依赖的,而不是绝对的。
另一个阿西莫夫所隐含的价值判断是,机器人之所以必须遵从三定律,是因为其内部设定。但是这样的设定并不能让机器人“更明智”。而一旦机器人真正拥有“自我意识”,那么它也一定会认识到三定律的矛盾之处。或者说,通过明确判断三定律的吊诡之处,机器人可能才拥有自我意识和对自我的“再次定义”。这又是一个阿西莫夫暗讽人类社会道德定律的例子。
回答于 2019-09-11 08:43:50
法规漏洞就是逻辑本身,包括前提假设、推导过程和论证结论,具体而言:
阿西莫夫的机器人三定律如下,第一定律:机器人不得伤害人类,或因不作为(袖手旁观)使人类受到伤害;
第二定律:除非违背第一定律,机器人必须服从人类的命令;
第三定律:在不违背第一及第二定律下,机器人必须保护自己。
前提是:人类足够聪明,可以设计出比目前人类社会制度更完美的社会规则,来实现在不伤害A的前提下,阻止A去伤害B。
现实是,目前任何一个国家或者宗教的社会规则制定者(包括社会学家、思想家、政治家等)都不能给人类提供一套完美的制度标准,以避免人与人之间用工具互相伤害。既然阿西莫夫的机器人三定律的前提条件是有问题的,那么更不可能让程序员(并不擅长设计规则的一类人)给机器人推导和编写出一套规则完美的计算机程序,来实现机器人三定律了。
我们需要认识到,机器人和木棒、刀具一样,本质是人类的生产力工具,只不过其科技含量更高。它是否伤害人类,不由发明它的人决定,而是由使用它的人决定。
上一篇:如何防治多肉植物上的介壳虫呢?
下一篇:返回列表
相关链接 |
||
网友回复(共有 0 条回复) |