您现在的位置: 首页 > 网站导航收录 > 百科知识百科知识
人工智能发展的最大障碍是什么?
人工智能,模式,神经元人工智能发展的最大障碍是什么?
发布时间:2019-02-08加入收藏来源:互联网点击:
宏观行为
从宏观上,科学家们也进行了大量的研究。通过对大脑活动的各种成像方法和医学研究。对于人类大脑不同区域所负责的功能已经理解得比较清楚了,大脑不同位置上的结构的差异也有了理解。但这个层面上的研究粒度太粗了,基本上能把大脑分成上百块就不错了。这样算下来,每块平均有上亿个神经元细胞。记得有人说,这种宏观上的研究相当于用红外线摄像机从汽车外面研究车为什么会开一样,基本上是理解不了原理的。这方面研究的应用主要是在医学和心理学上。
依靠人脑来研究人脑,有时就像自己要把自己拎起来一样,看似是不可能的任务。人、、的研究方式一般都是产生想法、然后逻辑推理。有句话叫做大胆猜想,小心求证。这基本上都要在大脑里进行一些模拟和推导。如果要对神经网络的宏观行为在大脑中进行模拟,至少也要模拟上千个神经元。这不是用10个神经元模拟1个,估计是用1000甚至10000个模拟1个。而且人脑的绝大部分神经元已经固化了别的任务,不会参与这个模拟过程。所以人脑本身对自己规模化的模拟几乎是不可能的,这个思考过程需要一些外部的帮助来完成。但想法的产生是迅速的,在快速验证原型前,可能大脑就把有些想法抛弃了,可能经常就是几个想法绕来绕去的,没有进展。所以,对这样的宏观问题的研究效率是很低的。这不像是对某些宏观情况,比如气象、星系演变类的研究建模,这些问题的计算量大,但其公式数量较少,程序架构也相对容易理解。
所以,虽然对宏观上大脑怎样分工,和对微观上单个神经元是如何工作的都有较多的了解,但没有一个方法能将这两者统一起来,实现一个完备的系统。考虑到这整个系统是从代码量不大的DNA中的一小部分产生的,这个系统就越发显得神奇……
模式的粒度
所谓模式,也可以称为函数,即特定的输入能产生有规律的输出。神经网络和一般数学上函数的区别是,神经网络中有存储的功能,所以每次输入可能会影响下一次输出。这不影响一个神经网络被称为函数,但为了和一般函数的概念区分,下面还是称之为模式。
人脑的整个神经网络可以称为一个模式,心理学、大脑成像等方面的研究就是在研究其模式。但这个模式太复杂了,输入输出很多,作为一个整体只能进行宏观上的研究。每个神经元,也可以称作一个模式,科学家们对其行为基本研究得不少了。但这个模式的功能又太简单了,和单个的晶体管原件差不多,能够解决的问题有限。
现代很多神经网络和机器学习的算法,能够处理若干个神经元,这也可算做一个模式。对于这种模式,研究非常多,而且能够解决很多实际问题了。但这类模式的结构非常简单,一般是有清晰的层次关系,其输入也需要严格的标准化。人脑中一般不是分层的结构。不分层结构的主要挑战有,
1)如何抑制整合、激发过程中的振荡。虽然有神经网络算法是不分层的,但很容易发生信号的振荡,环路等,不容易解决实际问题。
2)如何有意义的创建、删除神经元之间的连接。这里的有意义除了是连接的调整能够有助于解决问题,或简化模型。另一方面,也需要这些调整是自组织的。所谓自组织,是通过神经元、或模式自身的信息就能够进行调整,而不是依靠大量宏观或外部的信息来进行调整。如果依靠很多宏观和外部的信息,其实就是把记忆、运算挪到了外部。这就不是一个可扩展的神经网络了。
先不管这些问题的难度。如果我们找到了能够解决这些问题的算法,产生了模式。那么其内部是否可分为更小的模式呢?可以认为大脑就是不同规模模式的组合。由于神经元之间的组合很自由,可能很难清晰的划出各个模式之间的边界。可以认为一组神经元之间的连接较多,而且它们和外部的连接较少,就可称为一个模式。正因为模式边界的模糊性,对其的研究就更难了。
大规模的模式整合
如果要解决很复杂的问题,就需要将很多模式一起配合。在解决一些实际问题的时候,可能有好几个模式在使用,比如Cortana类的语音助手,有好几个模式组合在一起工作,才能实现所需要的功能。但每个模式的输入输出,模式之间该如何组合,都花费了大量的人力物力来设计和实现。
在基本组织结构的模拟上,产生了神经网络和机器学习的各种算法。这些算法大部分都将神经网络特殊化为分层结构,否则很容易因为信号振荡、或自由度太大而无法有效输出结果。基本上是人需要花不少时间对问题进行建模,然后调整各种参数,从而输出比较理想的结果。机器学习的算法从规模上比人类是有很大优势的,由于人类大脑运算、输入输出速度的限制,是无法对大量数据进行有效的统计归纳,并发现其中规律的。当有了一个比较有效的模型,这就比较好做到了。这是普通机器学习智能的优势。大脑的优势在于其容纳了非常多的模式,而且很容易学会新的模式。
随着所需要配合的模式的增加,软件复杂度也会随之增长。通过人工来设计模式、组合模式的效率和人的大脑相比,效率就低了。人脑里面的模式数量大概在千万级,通过人工的方式,几乎是不可能完成的任务。
具体的问题有,
1)如何高效的发现新模式。这里有两种思路,一种是设计一个模式产生器用来产生新的模式,并将其嵌入到已有的系统中。另一种是让神经网络自身能够产生新的模式。这样产生的模式之间可能并没有清晰的界限,更像是大脑中网络的结构。
2)如何发现类似的模式,并将其合并。这对节省空间、提高计算效率、知识的举一反三都有很重要的意义。这个问题对于输入输出定义很清晰的模式较容易,如果是人脑这样的没有清晰的模式界限的,就比较挑战了。
3)模型的通用性。大脑有一个一般化的网络结构,其灵活性非常大。即使某些专用区域失去了功能,如听力相关的区域,其它区域通过一些训练,能够恢复大部分功能。虽然某些部分,如小脑,有一些专用的变化,但其基本原理是类似的。这里面的挑战在于,如何能够创建一个灵活的结构,可以组成不同等级的模式。
通用语言
这里说的语言不是计算机编程的语言,也不是用于人和人之间交流的语言,而是适合强人工智能内部交流的语言。人类大脑中是有这样的语言的,平常说的只能意会,不能言传,就是内部语言的表现。所谓意会就是出了人类语言之外的其它知识集或者感官可以理解的东西,但很难翻译成人类语言。这种语言是大脑中比较高级的交流层次,是我们的主观意识能够感受到的最低层次的活动。最低层次的神经活动就是神经元之间的激发整合了,我们应该是很难感受到的。
通用语言的优势在于能对各种概念、物体一层一层的归纳、建模。从而能够描述非常复杂的对象或者抽象活动等。
大脑中能产生这种通用语言,和它自由、混沌的网络结构是分不开的。大脑通过神经网络的自组织,完成了各种概念层次的自组织。它的语言体系不是先定义后实现的,而是一边输入、一边定义。这也是人为什么年纪越大,经验越丰富。因为通用语言的适应范围随着输入的增长而变大。
上一篇:一个30多岁的朋友,刚被裁员,是去找份工作,还是自己去创业?
下一篇:返回列表
相关链接 |
||
网友回复(共有 0 条回复) |