哺乳动物大脑神经元也能做深度学习,未来10年神经科学与人工智能将迎突破

简介: 神经网络受生物神经网络启发而来,但大脑里的学习过程真如深度学习那样吗?这个问题的答案有望实现更强大的深度学习模型,也有助于进一步了解人类的智能。 12月5日,CIFAR研究员、多伦多大学的Blake A. Richards和同事在期刊eLife发表了论文《尝试用分离的树突进行深度学习》(Towards deep learning with segregated dendrites)[1]。

神经网络受生物神经网络启发而来,但大脑里的学习过程真如深度学习那样吗?这个问题的答案有望实现更强大的深度学习模型,也有助于进一步了解人类的智能。

12月5日,CIFAR研究员、多伦多大学的Blake A. Richards和同事在期刊eLife发表了论文《尝试用分离的树突进行深度学习》(Towards deep learning with segregated dendrites)[1]他们在论文中提出了一种算法,对大脑中可以如何进行深度学习进行了模拟。他们构建的网络表明,某些哺乳动物神经元具有适合进行深度学习的形状和电学特性。不仅如此,他们的实验也用一种更接近生物学的方法,展示了真实的大脑如何进行深度学习,甚至有望帮助解释大脑如何演化出了“学习”的能力。

如果神经元与深度学习之间的关联得以确认,我们就能开发更好的脑机接口,从疾病治疗到增强智能,随之而来的应用也将开启各种可能。

哺乳动物大脑的神经元也能做深度学习

这项研究由Richards和他在多伦多大学的研究生Jordan Guerguiev一起,与DeepMind的Timothy Lillicrap合作完成。

实验中使用的神经元是小鼠大脑新皮质的树突细胞。新皮质脑区负责一些高等功能,比如知觉、运动指令的产生,与空间推理、意识及人类语言也有关系。而树突则是从神经元细胞本体发出的多分支突起,形状类似树木。树突是神经元的输入通道,将从其他神经元接收到的动作电位(电信号)传送至细胞本体。

884b70e3fe9b7fbddc31b637489d87f1d6d87455

研究构建的“多房室神经网络”模型示意:左边是小鼠初级视觉皮层锥体神经元;右边是简化的神经元模型。来源:CIFAR

利用这种神经元结构的知识,Richards和Guerguiev建立了一个模型,叫做“多房室神经网络”(multi-compartment neural network model)。在这个网络中,神经元都在隔开的“隔间”中接收信号。由于一段一段隔开,不同层的模拟神经元能够协作,实现深度学习。

结果发现,在识别手写数字时,多层网络的效果明显好于单层的网络。算法能够利用多层网络结构识别高阶表示正是深度学习的核心标志。这表明小鼠大脑神经元跟人工神经元一样都能进行深度学习。

“这只是一组模拟,所以不能准确反映大脑正在做什么。但是,如果大脑可以使用AI使用的算法,这已经足以证明我们可以开展更进一步的实验调查了。”Richards说。

用更好的训练方法,证明深度学习体现人类大脑工作机制

在21世纪初,Richards和Lillicrap在多伦多大学上了Hinton的课,深信深度学习模型在一定程度上准确反映了人类大脑工作的机制。但是,在当时要验证这个想法还有几个挑战。首先,人们还不确定深度学习是否能达到人类水平。其次,深度学习算法违反了神经科学家已经证明的生物学事实。

计算机网络在深度学习中发生的活动模式也类似于人类大脑中所见的模式。但是,深度学习的一些特征似乎与大脑的工作方式不相容。而且,人工网络中的神经元比生物神经元简单得多。

现在,Richards和一些研究人员正在积极寻求弥合神经科学和人工智能之间差距的方法。本文以Yoshua Bengio团队的研究为基础,以生物学上更加可行的方式训练神经网络。

63c1008ceffe2ff3129cd0a8694cd1fa1b2370a0

均衡传播示意图:使用均衡传播训练神经网络时信息的传递过程。右边的简单网络,一层一层传递,BP适用,当然均衡传播也适用;而左边的复杂网络,更加类似生物神经网络结构,BP在这里就不适用了,这也是通常认为深度学习不能体现人脑机制的原因之一,但是,均衡传播能够适用于多连接的这种情况。

Bengio和他的研究生Benjamin Scellier发明了一种新的神经网络训练方法[2],叫做“均衡传播”(equilibrium propagation),是常用的反向传播(BP)的一种替代方法。均衡传播可以使用单一的回路和单一类型的计算来进行误差的推理和反向传播。因此,均衡传播过程可能更加类似大脑生物神经回路中的学习过程。

这项研究还使用了DeepMind的Timothy Lillicrap开发的算法[3],进一步放宽了神经网络的一些训练规则。(顺便一说,Timothy Lillicrap也是DeepMind最强通用棋类AI AlphaZero论文的作者之一。

这篇论文还吸收了Matthew Larkam对新皮质神经元结构的研究。通过将神经科学的发现与现有的算法相结合,Richards的团队创建了一个更好的、更真实的算法来模拟大脑中的学习过程。

未来10年真正打通神经科学与人工智能

树状新皮质神经元只是大脑中许多细胞类型之一。Richards说,未来的研究应该模拟不同类型的大脑细胞,并研究它们如何相互作用来实现深度学习。从长远看,他希望研究人员能够克服重大挑战,比如在不接收反馈的情况下如何通过经验进行学习。

Richards说:“我们在接下来的十年左右可能会看到神经科学与人工智能之间真正的研究良性循环,神经科学的发现帮助我们开发新的人工智能,而人工智能帮助我们解释和理解神经科学方面的实验数据。”


原文发布时间为:2017-12-7

本文作者:费欣欣

本文来自云栖社区合作伙伴新智元,了解相关信息可以关注“AI_era”微信公众号

原文链接:哺乳动物大脑神经元也能做深度学习,未来10年神经科学与人工智能将迎突破

相关文章
|
1天前
|
机器学习/深度学习 人工智能 算法
【AI】从零构建深度学习框架实践
【5月更文挑战第16天】 本文介绍了从零构建一个轻量级的深度学习框架tinynn,旨在帮助读者理解深度学习的基本组件和框架设计。构建过程包括设计框架架构、实现基本功能、模型定义、反向传播算法、训练和推理过程以及性能优化。文章详细阐述了网络层、张量、损失函数、优化器等组件的抽象和实现,并给出了一个基于MNIST数据集的分类示例,与TensorFlow进行了简单对比。tinynn的源代码可在GitHub上找到,目前支持多种层、损失函数和优化器,适用于学习和实验新算法。
|
3天前
|
机器学习/深度学习 人工智能 算法
AI大咖说-关于深度学习的一点思考
周志华教授探讨深度学习的成效,指出其关键在于大量数据、强大算力和训练技巧。深度学习依赖于函数可导性、梯度下降及反向传播算法,尽管硬件和数据集有显著进步,但核心原理保持不变。深度意味着增加模型复杂度,相较于拓宽,加深网络更能增强泛函表达能力,促进表示学习,通过逐层加工处理和内置特征变换实现抽象语义理解。周志华教授还提到了非神经网络的深度学习方法——深度森林。5月更文挑战第12天
28 5
|
4天前
|
机器学习/深度学习 人工智能 算法
构建高效AI系统:深度学习优化技术解析
【5月更文挑战第12天】 随着人工智能技术的飞速发展,深度学习已成为推动创新的核心动力。本文将深入探讨在构建高效AI系统中,如何通过优化算法、调整网络结构及使用新型硬件资源等手段显著提升模型性能。我们将剖析先进的优化策略,如自适应学习率调整、梯度累积技巧以及正则化方法,并讨论其对模型训练稳定性和效率的影响。文中不仅提供理论分析,还结合实例说明如何在实际项目中应用这些优化技术。
|
4天前
|
机器学习/深度学习 人工智能 算法
【AI 初识】讨论深度学习和机器学习之间的区别
【5月更文挑战第3天】【AI 初识】讨论深度学习和机器学习之间的区别
|
4天前
|
机器学习/深度学习 自然语言处理 PyTorch
fast.ai 深度学习笔记(三)(4)
fast.ai 深度学习笔记(三)(4)
25 0
|
4天前
|
机器学习/深度学习 算法 PyTorch
fast.ai 深度学习笔记(三)(3)
fast.ai 深度学习笔记(三)(3)
34 0
|
4天前
|
机器学习/深度学习 编解码 自然语言处理
fast.ai 深度学习笔记(三)(2)
fast.ai 深度学习笔记(三)(2)
38 0
|
4天前
|
机器学习/深度学习 PyTorch 算法框架/工具
fast.ai 深度学习笔记(三)(1)
fast.ai 深度学习笔记(三)(1)
41 0
|
4天前
|
索引 机器学习/深度学习 计算机视觉
fast.ai 深度学习笔记(四)(3)
fast.ai 深度学习笔记(四)
47 0
|
4天前
|
机器学习/深度学习 固态存储 Python
fast.ai 深度学习笔记(四)(2)
fast.ai 深度学习笔记(四)
55 3
fast.ai 深度学习笔记(四)(2)

热门文章

最新文章