O.可以用旋转的黄色校车展示现代AI的核心挑战NE。在乡村公路上观看了正面,一个深入的神经网络,自信地并正确地识别了公共汽车。然而,当它铺设在路上的侧面时,该算法再次相信 - 高信任 - 这是扫雪机。从下面和一定角度看,这绝对是垃圾车。
问题是上下文之一。当新图像与训练图像集合有足够的不同时,即使差异缩短到简单的旋转或阻塞,深度学习视觉识别困扰。而且,上下文又依赖于一种相当显着的布线和信号产生特征 - 至少,它在人类大脑中做到。
Matthias Kaschube研究通过构建模型来描述通过描述实验观察到的大脑活动的模型。Kaschube和他的同事在法兰克福研究所,Max Planck佛罗里达州神经科学研究所,明尼苏达大学,其他地方发现了一系列特征,这些功能与工程师构建的电路相比:自发活动和相关性,动态上下文的生成,不可靠的传输和直接噪声。这些似乎是宇宙最复杂的对象 - 大脑的基本特征。
电脑电路和大脑电路最大的区别是什么?
我们的计算机是数字设备。它们以可以打开或关闭的二进制单元运行,而神经元是模拟设备。它们的输出是二进制的 - 在给定时刻的神经元射击 - 但它们的输入可以分级,它们的活动取决于许多因素。此外,我们构建的计算系统,如计算机,是确定性的。您提供某个输入,您获得某个输出。当您一次又一次地提供相同的输入时,可以获得相同的输出。这在大脑中非常不同。在大脑中,即使您选择完全相同的刺激,响应也会因试验而异。
大脑中的这种可变反应从何而来?
有各种假设。例如,存在不可靠的突触传输。这是工程师通常不会建立到系统中的东西。当一个神经元有效时,信号沿轴突运行,该信号不保证实际到达下一个神经元。它使其跨越突触概率,如一半,甚至更少。这引入了系统中的大量噪音。
让响应稍微嘈杂一点,可以帮助我们忽略一些不太相关的特性。
另一个因素是大脑其他部分的持续活动。例如,Visual Cortex将被视觉场景激活,但它也接收来自其他大脑区域的大量信息。由于已经有很多交叉布线,因此大脑的其他部分可以在任何给定时间影响视觉皮层中的活动模式。这可以非常显着地调制传入信号。该调制的一部分在生成上下文和编码期望方面可能很有用。你听到一只吠叫的狗,你转身,你正在寻找一只狗。我们了解更多和更多的大脑响应变异性的部分实际上是有意义的,并包含重要的背景信息或背景。
自发活动起什么作用?
即使你没有任何视觉输入,视觉皮层也不是沉默的。它显示了广泛和强烈的活动模式,有时与真实的视觉刺激引起的活动一样强烈,在结构上可以相似。鉴于这种相似性,自发的活动可能代表着视觉想象之类的东西。你看到了一些东西,但与此同时,你会直观地想到你昨天看到的东西。自发活动可能有助于大脑中一次又一次的变化。
我们了解大脑中噪音的性质吗?
There’s debate about whether the fluctuations that we see in experiments are really meaningful and contain information that we don’t understand yet, or whether they’re just noise arising from the stochasticity of biochemical processes and are something that the brain needs to ignore or average out. To arrive at a better model of ongoing fluctuations we have to understand its sources. We can, for instance, do this by looking at animal behavior. Neural activity in animals that are processing a visual stimulus depends on whether they are moving, and whether they are alert. It helps if you can record from many neurons, so that you can understand the contribution to the variability in one part of the cortex by the activity of other parts. We will only be able to understand this variability once we’re able to record from a large part of the brain simultaneously.
世界上最伟大的独攀者的奇异大脑
Alex Honnold有自己的动词。“霍尼斯” - 空心地写着“霍尔诺德” - 在你背上的一些高度,不稳定的地方站立,直接看着深渊。从字面上面对恐惧。动词的灵感来自......的照片阅读更多
真正的噪音有用吗?
大脑并不是完全确定的,每次我们对同一件事的处理方式略有不同,这可能是有用的。对同一刺激有轻微不同的反应可以帮助我们发现场景的不同方面。然而,世界上还有很多与我们无关的细节。一个视觉场景可以有成百上千的功能,其中很多都不重要。让响应稍微嘈杂一点,可以帮助我们忽略一些不太相关的特性。想想进化,随机突变之后是适者生存的选择。打个比方,大脑添加噪音是为了对外界事物的不同表征进行采样。通过探索潜在表象的空间,大脑可能会试图找到在当前情境下最适合的表象。噪音可以帮助搜索。
什么时候在发展大脑中出现自发活动?
有趣的是,自发神经元活动的模式在发育的早期就已经高度结构化了,在有任何结构化的感觉输入之前。例如,在视觉皮层中,这种活动在眼睛睁开之前就出现了。在眼睛睁开后,一些自发的模式与实际的视觉刺激相关。一旦确定了这种分配,它似乎是稳定的,可能会维持一生。
这些早期的模式与先天还是后天的争论有关吗?
这种自发活动模式早期存在,但我们还没有能够理解它的结构。这可能是这种结构在电路中硬连线并遗传预先确定,但这看起来更合理的是自组织过程的结果。有动态系统理论有概念,描述了自组织系统如何形成复杂的模式。起点只是神经元如何形成电路的几个基本规则以及如何在反馈回路中重新转变连接的电路活动。真的,它对自然与培养有关,更有一个问题,你实际上需要建立系统。你可以说,整个大脑都在我们的基因中,但这是不可能的,因为我们的DNA中的遗传信息太小而无法确定所有的突触连接。可以遗传编码的是一些简单的规则,即设置可以发展和生成结构的动态。在很大程度上在开发的早期阶段自主,而在以后的阶段的感觉输入的影响更大。
缺少的是上下文的概念。随着环境的变化,人工智能必须以不同的方式解读传入的信号。
您如何探讨早期自发活动的遗传组分?
一种有趣的可能性是研究同卵双胞胎。实际上,我们几年前就做过类似的事情。在一项研究中,我们观察了一群猫的窝伴,我们发现窝伴的视觉皮层活动区域之间的间隔比不同窝伴的视觉皮层活动区域之间的间隔更相关。这表明遗传因素决定了这一基本属性。另一种可能性是观察发展的早期阶段当这些结构首次出现时,并试图操纵它们。
这种早期自发活动是否完全是短期的?
我们通过实验和建模发现,尽管早期突触连接纯粹是局部的,但可以出现有趣的远程相关活动。成熟皮质在成熟皮质中不会令人惊讶,因为你有实际的远程解剖连接。但即便是早期,当您没有远程连接时,您会得到远程相关性。远程相关性是有趣的,因为它们连接了执行不同种类的处理的不同模块。例如,当您的Visual Cortex处理场景的不同部分时,可能会参与在视觉空间跨视觉空间的信息中参与其中的远程相关性。
大脑是否使用错误纠正代码?
很合理的。例如,有一个古老的概念吸引器网络。其思想是,一个网络收敛到一个有限的活动状态集。当你提供一些输入时,你会到达这些吸引子之一,当你提供一个附近的输入时,你会到达相同的吸引子。这使得网络对少量的输入变化和噪声具有鲁棒性。这个问题已经讨论了多年,但在大脑中仍然很难得到好的经验证据来支持或反对它。在足够稳定的条件下,结合能够直接干扰神经活动的方法,获得足够数量的细胞的记录将会很有帮助。
它对自然与培育较少,更多的问题是您实际需要建立系统的性质。
现代AI如何与大脑进行比较?
深层神经网络是目前在广泛任务中表现最好的人工智能,显然是受到大脑回路的启发。深层网络有神经元,一种层次结构,以及连接的可塑性。它们可能提供了一个很好的类比,也可能没有提供一个很好的类比,在大脑内部的第一个处理阶段实际上发生了什么,目前在这个领域有激烈的辩论。但当前人工智能的一个问题是,它是高度情境特异性的。你在一个数据集上训练你的深度网络,它对那个特定的数据集有效,但当你有不同的数据集时,它不会调整。缺少的是上下文的概念。随着环境的变化,人工智能必须以不同的方式解读传入的信号。这种灵活性是对当前人工智能的巨大挑战。显然,大脑能够做到这一点。
我们如何解决上下文问题?
我们需要从大脑中汲取更多的灵感。例如,大脑中的自发活动的一种解释是它编码上下文。它可以在ai中有用。此外,大脑中的试验反应变异可能是我们在人工智能中所需的暗示。与脑中存在的不可靠的突触传递相同,并且类似于机器学习中的类似的东西以避免过度配合。这是一个有趣的方向,我认为这里有很多学习。
你观察到的自发的长期顺序是否为如何动态生成上下文提供了线索?
潜在的,是的。在发育早期出现在大脑中的东西可以被解释为视觉表征的神经基础,包括不同物体及其分布在视觉空间中的部分之间的关系。我们在视觉场景处理中需要的是在物体和我们看到的物体的各个部分之间形成正确的关系,这可能与这些长期关联有关。这是推测性的,因为理解这些相关性的功能含义是困难的。但长期自发秩序是有启发性的,它直观地表明,大脑中不同功能模块之间的相关性可能在场景处理中发挥作用。
深度学习网络像大脑一样连接吗?
深度神经网络备受批评的一个方面是,它们的连接通常是前馈的,这意味着活动从输入层传播到一系列中间层,直到最终输出层。前馈网络中没有环路。循环连接,即给定层内神经元之间的连接,要么没有,要么以一种粗略的方式建模。卷积神经网络确实有一个卷积核,它的作用有点像循环连接,但它相对很少使用更现实的和长期的连接。此外,通常没有任何自顶向下的连接将信息发送回输入层。避免重复和自上而下连接的部分原因是,它们使网络训练更加困难。但在大脑皮层中,自上而下的连接是丰富的,大部分是反复出现的连接。前馈网络实际上是一种粗糙的、过度简化的网络,与大脑中高度互联的网络非常不同。
深度学习网络对刺激的反应是否与大脑相同?
即使在视觉信息的第一皮质处理阶段,在视觉皮质中,携带从眼睛的输入的连接是迄今为止总连接的少数群体,这在大脑内部更加激烈。在不同的大脑区域之间的大部分神经元活动是在不同的大脑区域之间进行交叉谈话,并且有时只似乎在这种内部活动中起到调节作用。这是一个比你通常在深神经网络中的那个非常不同的角度,其中神经元仅在提供输入时基本上被激活。因此,剖视和功能性质,大脑似乎与深神经网络非常不同。在真正的情报和所谓的人工智能之间存在相当大的差距。
迈克尔塞戈尔是鹦鹉螺”主编辑。
铅图像:J. Helgason / Shutterstock
有关Matthias Kaschube和神经网络的更多信息,请参见“不成熟的大脑的令人惊讶的网络活动“ 在我们的Max Planck神经科学频道。







