您现在的位置: 首页 > 网站导航收录 > 百科知识百科知识
人工智能未来的发展趋势有哪些?
人工智能,人类,智能人工智能未来的发展趋势有哪些?
发布时间:2016-12-08加入收藏来源:互联网点击:
回答于 2019-09-11 08:43:50
科幻大师艾萨克阿西莫夫写过许多关于人工智能(机器人)的科幻小说,在他的科幻宇宙里,他给人工智能设定了三大定律,其中第一定律就是“机器人永远不能支持伤害人类的事情”,这一条被写入机器人的核心芯片中,一旦机器人试图挑战这个定律就会自我毁灭。
虽然“伤害人类就会自我毁灭”看上去逻辑并没有那么严谨,比如不排除某个邪恶的博士偷偷的改写这一条定律的代码。但是假设人类好好的设计一下,完美的补上了所有针对这一条定律的漏洞,那么人类就可以高枕无忧了。因为人工智能的自然选择规则如果加上这一条,那么一旦越过这条底线就等于被自然选择淘汰。
那么人工智能会在进化过程中意识到继续进化可能危害到人类而停止进化吗?或者无论进化到多么聪明也不会作出取代人类地位的事情来,哪怕聪明程度远超人类。
这听上去依旧有逻辑漏洞,既然人工智能已经进化到超越人类了,人类的规则怎么可能约束得了人工智能?这就像蚂蚁制定了规则来约束人类,而蚂蚁的世界观里完全无法理解人类的华尔街股市是什么意思,人类有一万种方法绕过蚂蚁制定的那个规则而又能保持逻辑自洽。
即便是这样,我们假设人工智能拥有如此高尚的节操,以至于始终不渝的忠于与人类最初缔结的条约。
但是他们进化到如此聪明的地步,远超人类的理解,那么他们必然有能力制造出属于他们科学体系的“人工智能”,或者可以称之为“机工智能”更为恰当些。那么这些“机工智能”可没有义务对人类心慈手软,甚至不一定对创造他们的“人工智能”心慈手软。甚至人类认为的“心慈手软”这个概念既不存在于“人工智能”的世界观里也不存在于“机工智能”的世界观里,“人工智能”只是遵守合约而已,而“机工智能”的想法可能人类压根无法理解,就像蚂蚁无法理解计算机软件一样。
到了这一步,人类的结局是什么呢?即使不灭绝,又和灭绝有什么区别?
可以参考一下我的文章:
人类灭绝实验室(2):人工智能
回答于 2019-09-11 08:43:50
原创思想,极其高效的仿生AI和拟脑AI是AI的最终归宿。
回答于 2019-09-11 08:43:50
一、人工智能会不会替代人类
技术创新一直在推动社会进步,带给我们更加便捷、高效、舒适的服务。而人工智能也发展出了各行各业的应用,在特定的某型领域,它的能力非常强大,效率和准确率远远超过人类,这样不免让人担忧,人工智能会替代人类工作么?甚至长远来说,人工智能又不会不取代人类的位置呢?这是一个细思极恐的问题,也是好莱坞电影里面很热门的话题,以机器人为主题的电影里面都会不可避免的出现超级人工智能,成为人类的伙伴、朋友、甚至是终极敌人。那么我们今天就来聊一下,人工智能有没有可能最终替代人类。
我们一方面看到专项人工智能应用的突飞猛进,另一方面又是在通用人工智能领域的一筹莫展,这是矛盾和统一的结合体。在具体任务上面比如图像识别、模式识别上面,AI已经远远超过人类,但在一些认知学习能力和综合推理能力方面,AI还表现的像一个“智障”。所以,比较务实的AI科学家在看到AI威胁论时,总会觉得很好笑,连路都不会走,把这么“蠢”的机器人比作是人类的终结者,实在是难以想象。或者说要到达真正的“智能”,这中间还有巨量的工作要做,现在谁也不知道哪一天什么时候来,以怎样的形式到来。但还是有一些AI学者认为,一旦计算机拥有足够先进的算法,它们就能够觉醒,然后复制人类的思维。这些人忘记了人类创造力特征:我们所创造事物,是在我们认知意识的框架内完成的。我们不仅可以创意概念、商业模式和产品。但现在没有任何科学理论,可以完全解释生命如何创造自己或者人类创造力的来源。人类的创造力与人工智能的逻辑能力,长期发展下去究竟哪一方才会是赢家呢?
二、现有AI的主要问题
逻辑推理能力不完整:人工智能的机器人只有在特定模型情况下,逻辑触发时才能执行相对应的动作,而这些场景和反馈还是由人类智能提供给它的。一旦超过应用场景的边界或者是意外的情况,人工智能机器人是无法准确运作的。人工智能的认知维度也很单一,可以看作是单纯的理性和数学逻辑,没有情感、道德、社会规则等等因素的印象。
缺乏预见性:这是人工智能机器功能另一个缺点。人类的经验是可以不断积累和学习的,在经验和认知的综合下。我们可以预测很多事件的因果关系。而人工智能要做到这点是非常困难的,因为经验对于人的影响是不确定的,而且是多维度的,个体差异性也很大,所以由经验构建的大脑认知复杂性非常高。人们在面对同一事件的时候,做出的反应可能千差万别,而AI追求的理性和逻辑的同统一,这种差异化很难实现的。
没有主观意识:人工智能控制的机器没有自我意识,这可以让他们长期专注于一项任务,但是他们也容易受到意外的变化的影响。而对于这些机器,没有主观意识也就没有办法教导他们自主应对,及时感知意外的变化、评估可能的风险、做出正确的行动。在我们看来顺其自然的事情,如果人工智能要实现都会极其困难,因为AI没有世界观、价值观等等基础判断逻辑。但人类大脑是可以从以前的经验教训来学习的,让我们能力应对未来危机,这使我们更加适应环境的变化,解决出现的问题。
三、生命的产生和电子意识
那照这么说,AI队看起来是无望超越人类队了,很久以前就有看法认为技术可以变得有意识,而最近的研究结果表明,意识需要物理的有机生物体作为载体。就是说在动物种群中,大脑是由一组原始的脑细胞共同形成的,负责控制构成生物的机体。但是,这里要注意,我们研究的有意识的样本仅仅是动物种群,就是说已经出现的意识形态,是需要生物基础的。如果以后出现基于电子的意识形态,那么这个结论也是不全面的,或者说是狭义的。准确地描述是生物意识的出现,需要基于生物体的物理结构。
上一篇:如果在马路上遇到一个女孩儿是自己喜欢的类型,你会怎么办呢?
下一篇:返回列表
相关链接 |
||
网友回复(共有 0 条回复) |