事实如此浪漫

为什么人工智能在计算能力上落后于人脑

pspn /伤风

R最近的进展使深度神经网络成为人工智能的主要范例。深度神经网络的一个伟大之处在于,只要给出大量的例子,它们就能学会如何行动。这意味着我们可以让软件学会做一些连程序员都不知道怎么做的事情。任务越复杂,神经网络就越强大。

尽管受到大脑结构的启发,神经网络的研究通常与实际的神经元没有任何关系。但在一个最近的分析来自耶路撒冷希伯来大学的神经学家David Beniaguev和他的研究小组发现,深度神经网络需要多么强大的能力才能复制人类的行为单神经元.令人惊讶的结果是:一个非常非常强大的结果。

大脑的100亿个神经元中有许多本身就是深层网络。

使用人工神经网络,而不是直接按照思维规则编程,程序员可以制作一个可以从输入数据中学习的系统。它之所以被称为神经网络,是因为它的结构受到了大脑神经元的启发——尽管人工神经网络的“单位”比生物神经元要简单得多。

一个人工神经网络有成千上万的例子。每当它遇到一个新的例子,它就会微妙地改变单元之间的联系,以产生更好的输出。你可以训练神经网络来判断一幅图片是儿童还是成人。随着时间的推移,程序会学习如何做好它。

出了名的然而,即使我们有一个正常工作的神经网络,对如何我们最终得到的是数千个单位之间的数值“权重”,这是很难看到和推导一般原则的。传统的(“浅”)神经网络只有三层(一个输入层,一个隐藏层和一个输出层)。

传统的神经网络有两个输入层(左边的绿色),一个“隐藏”层(中间的五个)和一个输出层。 Mysid Dake /维基媒体

在过去的十年中,更多的隐藏层被有效地利用,这就是为什么它们被称为“深度”神经网络,进行“深度学习”。

“深度”神经网络就像传统的网络,但有多个隐藏层。 BrunelloN /维基

这使得人工神经网络在我们不知道如何思考的情况下尤其有用。你会如何向别人描述如何区分杰西·艾森伯格和迈克尔·塞拉的脸?没有人知道,但是,有了大量的图像,你可以训练一个神经网络来找出它。网络自己从例子中学习,我们不需要知道我们如何用传统的方式来编程。

那么神经科学家Beniaguev、Segev和London是如何利用神经网络更好地理解生物神经元的呢?之前的神经科学已经提出了偏微分方程来描述神经行为,该团队使用这些方程来计算当给定数千个随机产生的可能输入时,神经元会做什么。然后他们用这些输入和输出来训练深层神经网络。他们的问题是:深度学习神经网络要有多复杂才能对方程生成的模型进行建模?

估计神经网络结构复杂性的一种方法是查看使用了多少层——深度网络被称为“深度”,因为它们有不止一个隐藏层。复杂性的另一个衡量标准是每个隐藏层的单位数量。

事实证明,对一些神经元建模根本不需要深度网络。一种神经元是“整合-激活”。所有这些神经元所做的就是将兴奋性输入加起来,减去抑制性输入,然后在数量大于某个阈值时发出信号。研究人员可以用传统的“浅”神经网络(一个只有一个单元的单一隐藏层!)来建模。

得到了鹦鹉螺必威开户官网

最新和最受欢迎的文章投递到您的收件箱!


当他们试图模拟大脑皮层(L5皮质锥体,或L5PC神经元)中一种更复杂的神经元时,情况就不同了。他们发现,这些单个神经元比我们之前认为的要复杂得多:人工网络(时间卷积型)需要一个完整的七个每层有128个单位,以成功模拟锥体神经元。

更深入的研究表明,这些神经元不会简单地发出或不发出即时输入信号。相反,它们在几十毫秒内整合输入。树突(神经元的输入结构)似乎自己在进行重要的处理,利用空间(输入的位置)和时间(输入的时间)的信息。正如作者所说,每个神经元都是一个“复杂的计算单元”。

事实上,与其说大脑的工作方式类似于一个深度学习网络,不如将大脑的100亿个神经元中的许多神经元视为深度网络更为准确,每一个神经元都有5到8层。如果这是真的,这将意味着大脑的计算能力比我们想象的要大得多,而在生物学水平上模拟大脑将涉及惊人的庞大计算资源。(这对像我这样的科学家来说是个坏消息,因为他们希望在机器上模拟人类思维,以便更好地理解它们。)

所幸的是,尽管深度学习网络很复杂,但它们是计算的更高效的比偏微分方程给出的更全面的描述要复杂得多,因为每个神经元都需要解上千个偏微分方程。神经网络的计算速度要快2000倍左右,未来的深度学习设计可能会让它更快。

吉姆·戴维斯(Jim Davies)是卡尔顿大学认知科学系的教授。他是获奖播客“关注大脑”的联合主持人。他的新书是做狗狗眼中的你:更好的你的科学

加入讨论