来自MRC脑网络动力学部门和牛津大学计算机科学系的研究人员提出了一项新原理,解释大脑在学习过程中如何调整神经元之间的连接。这一新见解可能会指导对脑网络学习的进一步研究,并可能启发人工智能中更快、更稳健的学习算法
学习的本质是确定信息处理管道中的哪些组件对输出中的错误负责。在人工智能中,这是通过反向传播来实现的:调整模型的参数以减少输出中的误差。许多研究人员认为,大脑采用了类似的学习原理
然而,生物大脑优于当前的机器学习系统。例如,我们只需看一次就可以学习新信息,而人工系统需要用相同的信息训练数百次才能学习。此外,我们可以在保持现有知识的同时学习新信息,而在人工神经网络中学习新信息往往会干扰现有知识并使其迅速退化
这些观察结果促使研究人员确定大脑在学习过程中使用的基本原理。他们研究了一些现有的数学方程组,这些方程组描述了神经元行为和它们之间突触连接的变化。他们分析和模拟了这些信息处理模型,发现它们采用了与人工神经网络截然不同的学习原理
在人工神经网络中,一种外部算法试图修改突触连接以减少误差,而研究人员提出,人脑在调整突触连接之前,首先将神经元的活动调整为最佳平衡配置。研究人员认为,这实际上是人类大脑学习方式的一个有效特征。这是因为它通过保留现有知识来减少干扰,从而加快学习速度
研究人员在《自然神经科学》杂志上描述了这一新的学习原理,他们称之为“前瞻性配置”。他们在计算机模拟中证明,在自然界中动物和人类通常面临的任务中,采用这种前瞻性配置的模型可以比人工神经网络更快、更有效地学习
作者使用了一只熊捕捞三文鱼的真实例子。熊可以看到河流,它知道如果它也能听到河流的声音和闻到鲑鱼的味道,它很可能会抓到一条。但有一天,熊到达河边时耳朵受损,所以听不见。
在人工神经网络信息处理模型中,这种听力的缺失也会导致嗅觉的缺失(因为在学习没有声音的同时,反向传播会改变多种连接,包括编码河流和鲑鱼的神经元之间的连接),熊会得出没有鲑鱼的结论,然后挨饿。但在动物的大脑中,声音的缺乏不会干扰人们对三文鱼仍然有气味的认识,因此三文鱼仍然有可能在那里捕捉
研究人员开发了一种数学理论,表明让神经元适应预期的配置可以减少学习过程中信息之间的干扰。他们证明,前瞻性配置比人工神经网络更好地解释了多次学习实验中的神经活动和行为
MRC脑网络动力学部门和牛津大学纳菲尔德临床神经科学系的首席研究员Rafal Bogacz教授说,“目前,执行前瞻性配置的抽象模型与我们对大脑网络解剖结构的详细了解之间存在很大差距。我们团队未来的研究旨在弥合抽象模型与真实大脑之间的差距,并了解前瞻性配置算法是如何在解剖识别的皮层网络中实现的。“
该研究的第一作者宋宇航博士补充道,”在机器学习的情况下,在现有计算机上模拟预期配置的速度很慢,因为它们的操作方式与生物大脑截然不同。需要开发一种新型的计算机或专用的受大脑启发的硬件,这种硬件将能够快速实现预期的配置,并且几乎不消耗能源。“
想要了解更多关于脑机接口技术的内容,请关注脑机网,我们将定期发布最新的研究成果和应用案例,让您第一时间了解脑机接口技术的最新进展。