神经拟态芯片拉近AI与人脑距离

简介: 神经拟态即通过模拟人脑神经元的工作机制,让计算机具备像人一样的自然智能特性。英特尔公布的另一项研究显示,将上述768块神经拟态芯片集成在5台标准服务器大小的机箱中形成的神经拟态系统——Pohoiki Springs,已经相当于拥有了1亿个神经元的大脑,而这相当于一个小型哺乳动物的大脑神经元数量。

云栖号资讯:【点击查看更多行业资讯
在这里您可以找到不同行业的第一手的上云资讯,还在等什么,快来!

F5521A7F_B930_4c8f_8FD7_7BACAA695638

除了会看会听,还会“闻”。近日,一直致力于模仿人类五感的人工智能又有新突破,通过神经拟态芯片,人工智能已经掌握了丙酮、氨和甲烷等10种气味的神经表征,强烈的环境干扰也不会影响它对气味的准确识别。这项由英特尔研究院与美国康奈尔大学共同参与的研究成果,日前发表于《自然·机器智能》杂志上。

神经拟态即通过模拟人脑神经元的工作机制,让计算机具备像人一样的自然智能特性。英特尔公布的另一项研究显示,将上述768块神经拟态芯片集成在5台标准服务器大小的机箱中形成的神经拟态系统——Pohoiki Springs,已经相当于拥有了1亿个神经元的大脑,而这相当于一个小型哺乳动物的大脑神经元数量。

通过堆叠芯片形成的神经拟态系统似乎让我们看到了“机器可以和人一样聪明”的希望,那神经拟态芯片及大规模集成系统的就绪,是否意味着“强认知、小样本学习”的神经拟态计算有了规模商用的可能?

神经拟态训练无需大量样本

目前深度学习算法作为实现人工智能的重要技术手段,被广泛应用于各类人工智能成果中。对于以深度学习算法为支撑的人工智能成果,数据可以说是研究的血液。数据量越大,数据质量越高,深度学习所表现的性能也就越好。但在不少研究环境中,由于涉及隐私安全以及客观条件限制,有效数据难以获得。

“深度学习虽然取得了长足进步,但仍局限在图像和语音等方面的分类和识别中。”英特尔中国研究院院长宋继强说,人类视觉、语音两类数据容易获得和标注,满足了深度学习的必要条件,研究及应用相对成熟,但味觉和嗅觉的研究却没那么乐观。

对于传统的人工智能来说,主流的深度学习方法,可能需要设置上亿个参数,训练数十万次,才能辨别出猫和狗的区别,更不用说更为陌生的气味识别领域。但是,即便对于一个几岁的婴孩来说,他们辨认动物、识别气味只需要几次就够了。

普通人经过训练能区分三四百种到数千种气味,但现实世界可以区分的气味超过万种。为模拟人类嗅到气味的大脑运行机制,研究人员采用了一套源自人类大脑嗅觉回路结构和动力学相结合的神经算法训练神经拟态芯片,仅需单一样本,神经拟态芯片便可学会识别10种气味,且不会破坏它对已学气味的记忆。

宋继强表示,即便是此前最先进的深度学习解决方案,要达到与神经拟态芯片相同的分类准确率,也需要3000倍以上的训练样本。

“理解大脑的神经网络如何解决这些复杂的计算问题,将为设计高效、强大的机器智能提供重要启示。”英特尔神经拟态计算实验室高级研究科学家纳比尔·伊玛目说,下一步计划将这种方法推进到更广的应用领域,包括从感官场景分析到规划和决策等抽象问题。

芯片向人脑进化成为可能

一只瓢虫的大脑有25万个到50万个神经元,蟑螂的大脑有100万个神经元,斑马鱼的大脑有1000万个神经元,小型哺乳动物大脑有1亿个神经元。

自然界中,即使最小的生物也能解决极为复杂的计算问题,很多昆虫大脑的神经元数目远低于100万个,却能实时跟踪物体、导航和躲避障碍物。而人类大脑由860亿个互相连接的神经元组成,要让人工智能变得和人一样聪明谈何容易。

目前由两个上述神经拟态芯片组成的神经拟态系统有26.2万个神经元,相当于拥有了一只瓢虫的智慧,而由768块神经拟态芯片组成的神经拟态系统的智慧则追上了仓鼠。

如果神经元的组织方式决定了大脑的思考方式,那么实现神经拟态计算,首先需要构建一个模拟大脑神经元工作的计算芯片。宋继强说:“我们试图观察、学习和理解大脑的运行,并在计算机芯片上复制。”

德国海德堡大学物理学家卡尔海因茨·迈耶是神经拟态学工程师们的领军人物,在他看来,人类大脑具有低功耗、容错及无需编程三大特点,虽然人类大脑功率只有20瓦特左右,并且时刻都在失去神经元,却不影响它对这个世界的运算、理解和应对。相比之下,试图模拟人脑的超级计算机却必须预设算法,动辄需要几百万瓦特的功率,失去一个晶体管就能破坏一个微处理器。

宋继强说:“深度学习的功率越来越高,现在即便训练一个图像识别模型,都需要数千瓦特,能源消耗已成为大规模AI部署的障碍。”

而拥有存储和计算一体结构的神经拟态芯片,节约了传统计算架构中处理单元和存储器间通信所消耗的时间和功耗。

2017年,全球首款自主学习神经拟态芯片问世,包含13万个神经元和1.28亿个突触,使芯片向人脑进化成为可能。

如果说深度学习是通过大量标注数据让机器学习解决某一问题,如AlphaGO没有学习象棋前,只会下围棋,神经拟态计算就是通过模拟人脑神经元工作机制,让人工智能不只局限于某一领域。

在神经拟态芯片展示的学会的各种能力中,不仅包括实时识别手势、使用新型人造皮肤阅读盲文、还包括通过自主学习获得视觉地标确定方向及学习新气味,而上述每项功能只消耗数十毫瓦。

有专家认为,这一突破为科学研究需要的可自主、互联的实时、动态数据处理新方法奠定了基础,扩展了蓬勃兴起的边缘计算应用前景。

要商用还需通用计算架构

在深度学习、机器学习之后,神经拟态计算被认为是推动人工智能进入新阶段的重要手段。虽然量子计算也擅长大规模计算,在某些任务中,它的理论可扩展性甚至超过神经拟态系统,但相比神经拟态计算,量子计算离真正商用还有不小的距离。

虽然看上去神经拟态芯片的商用比量子计算更近一步,部分研究机构已展示了很多神经拟态计算应用,但要大规模商用,还需要解决通用性不足的问题。

“距离将产品推向市场,我们还要等待数年。”英特尔神经拟态计算实验室主任迈克·戴维斯说,我们真正感兴趣的是找到一种像冯·诺依曼架构那样相对通用的新型计算架构。这才是真正扩展可应用通用计算产品组合的开始。

研究机构Gartner预测,2025年,神经拟态芯片有望取代GPU,成为先进人工智能部署的主要计算架构。

宋继强不完全认同这种说法:“机器学习在很多领域依然是目前最好的训练、学习手段之一。只有将多种技术灵活的运用到人工智能领域,它才能真正成为惠及民生的产业。”

宋继强强调,Pohoiki Springs等神经拟态系统仍处于研究阶段,设计目的并非取代传统的计算系统,而是为研究人员提供工具来开发和描绘新的算法。

【云栖号在线课堂】每天都有产品技术专家分享!
课程地址:https://yqh.aliyun.com/zhibo

立即加入社群,与专家面对面,及时了解课程最新动态!
【云栖号在线课堂 社群】https://c.tb.cn/F3.Z8gvnK

原文发布时间:2020-04-08
本文作者:陶宗瑶
本文来自:“人工智能学家 微信公众号”,了解相关信息可以关注“人工智能学家

相关文章
|
6天前
|
传感器 机器学习/深度学习 算法
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
198 0
无人机视角yolo多模态、模型剪枝、国产AI芯片部署
|
6天前
|
人工智能 芯片 异构计算
英伟达要小心了!爆火的Groq芯片能翻盘吗?AI推理速度「吊打」英伟达?
随着科技的飞速发展,人工智能公司Groq挑战了英伟达的王者地位,其AI芯片不仅展现出卓越的实力,还拥有巨大的潜力。Groq设计了一种独特的推理代币经济学模式,该模式背后牵动着众多因素,却也引发了深度思考:新的技术突破来自何处?中国该如何应对并抓住变革中的机遇?Groq成本如何评估?这些都是值得研究和思考的问题。
|
1天前
|
机器学习/深度学习 人工智能 语音技术
AI让失语者重新说话!纽约大学发布全新神经-语音解码器
【5月更文挑战第19天】纽约大学研发的神经-语音解码器,结合深度学习与语音合成,为失语者带来新希望。此脑机接口技术能将大脑神经信号转化为语音参数,再通过合成器转为可听语音。使用癫痫患者的数据进行训练,解码器已成功重现语音,尽管质量有待提升。该技术有望革新沟通方式,但也面临数据复杂性、隐私保护及社会接受度等挑战。[论文链接](https://www.nature.com/articles/s42256-024-00824-8)
13 5
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
清华首款AI光芯片登上Science,全球首创架构迈向AGI
【4月更文挑战第16天】清华大学研究团队开发出大规模光子芯片“太极”,在《科学》杂志发表,该芯片基于创新的光子计算架构,实现百万神经元级别的ONN,能效比高达160 TOPS/W。实验中,太极芯片成功执行1000类别分类任务,提升AI内容生成质量,为AGI发展开辟新路径。然而,光子集成电路的制造成本高、技术成熟度不足及软件支持限制了其广泛应用。
27 5
清华首款AI光芯片登上Science,全球首创架构迈向AGI
|
6天前
|
存储 人工智能 新制造
探索AI时代的刻蚀技术:解锁未来芯片的秘密
探索AI时代的刻蚀技术:解锁未来芯片的秘密
|
6天前
|
人工智能 自然语言处理 搜索推荐
通义大模型落地手机芯片!离线环境可流畅运行多轮AI对话
通义大模型落地手机芯片!离线环境可流畅运行多轮AI对话
37 0
|
6天前
|
人工智能 机器人 芯片
英伟达最强 AI 芯片、人形机器人模型炸场!黄仁勋放言英语将成最强大编程语言
在2024年的GTC大会上,英伟达创始人黄仁勋揭幕了新一代AI芯片Blackwell,号称是史上最强AI芯片,目标是推动AI领域的重大进步。
|
6天前
|
人工智能 算法 芯片
全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程
【2月更文挑战第24天】全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程
22 1
全球最强最大AI芯片WSE-3发布,4万亿晶体管5nm工艺制程
|
6天前
|
机器学习/深度学习 人工智能 自然语言处理
文生视频Sora模型发布,是否引爆AI芯片热潮
文生视频Sora模型发布,是否引爆AI芯片热潮
76 0
|
6天前
|
人工智能 安全 物联网
MWC2024联发科AI手机芯片亮点多多
近日,联发科在MWC 2024(2024 世界移动通信大会)上展出了一系列令人瞩目的AI和移动通信技术突破,以“连接AI宇宙”(Connecting the AI-verse)的展厅吸引了无数业界精英和媒体的目光。特别是其现场的生成式AI技术展示,更是引发了广泛的关注和热议。

热门文章

最新文章