找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 13481|回复: 0

浙大联合之江实验室研制亿级神经元类脑计算机

[复制链接]

395

主题

311

回帖

4413

积分

参议员

积分
4413
发表于 2020-9-1 16:29:44 | 显示全部楼层 |阅读模式
本帖最后由 Dynpro 于 2020-9-1 16:31 编辑

钱江晚报·小时新闻 记者 王湛 通讯员 柯溢能 吴雅兰 摄影 卢绍庆
发布时间:09-01 15:48


1.6米高的三个标准机柜并排而立,黑色的外壳给人酷酷的感觉,红色的信号灯不停地闪烁,靠得近些似乎能听到里面脉冲信号飞速奔跑的声音。

浙江大学联合之江实验室宣布,共同研制成功了我国首台基于自主知识产权类脑芯片的类脑计算机(Darwin Mouse)。今天在杭州举行了新闻发布会。
这台类脑计算机包含792颗浙江大学研制的达尔文2代类脑芯片,支持1.2亿脉冲神经元、近千亿神经突触,与小鼠大脑神经元数量规模相当,典型运行功耗只需要350-500瓦,同时它也是目前国际上神经元规模最大的类脑计算机。

与此同时,团队还研制了专门面向类脑计算机的操作系统——达尔文类脑操作系统(DarwinOS),实现对类脑计算机硬件资源的有效管理与调度,支撑类脑计算机的运行与应用。
颠覆传统的新型计算模式
对于如今在工作生活各个领域中早已司空见惯的计算机,或许大家已经忘了最初科学家是想通过机器模拟出一个人类大脑。

然而计算机的发展,在当时选择了以数值计算见长的冯·诺依曼架构,也就是以数字加减乘除的方式来进行信息架构。随着摩尔定理逐渐失效,冯·诺依曼架构带来的局限日益明显,存储墙、功耗墙、智能提升等问题,让当前计算机发展面临重大挑战。
比如,存储墙问题是由于现有的冯·诺依曼架构中数据储存和计算的分离产生的。
“这就好比信息存储在甲地,要计算的时候就把信息搬到乙地去,计算好了再搬回甲地去。但搬运的速度要远远低于计算的速度,反而让搬运本身成为关键瓶颈。”研究团队负责人、浙江大学计算机科学与技术学院教授潘纲说,这种计算模式制约了以大数据为代表的计算性能提升。而由此带来的数据“跑动”,以及人工智能等高耗能计算又让功耗墙问题冒了出来。同时,数据驱动的智能算法、训练需要海量样本与密集计算,但举一反三、自我学习等高级能力比较差,“现在的机器智能离人的智能差得还很远。”
如何突破现有计算运行方式导致的计算机瓶颈?
全球科学家们再次将目光瞄准到模仿生物大脑这个最初的梦想,通过模拟人脑结构与运算机制来发展新的计算技术,以期实现高能效与高智能水平的计算。

生物大脑在与环境相互作用过程中能够自然产生不同的智能行为,包括语音理解、视觉识别、决策任务、操作控制等,而且消耗的能量非常低。自然界中,很多神经元远低于100万的昆虫就能做到实时目标跟踪、路径规划、导航和障碍物躲避。
潘纲介绍说,用硬件及软件模拟大脑神经网络的结构与运行机制,构造一种全新的人工智能系统,这种颠覆传统计算架构的新型计算模式,就是类脑计算。其特点在于存算一体、事件驱动、高度并行等,是国际学术界与工业界的研究焦点,更是重要的科技战略,“类脑计算已被看作是解决人工智能等计算难题的重要路径之一。”

近年来,浙江大学聚焦人类智能与机器智能等核心领域,实施了简称为“双脑计划”的脑科学与人工智能会聚研究计划,希望借鉴脑的结构模型和功能机制,将脑科学的前沿成果应用到人工智能等研究领域,建立引领未来的新型计算机体系结构。
2015年和2019年浙江大学分别研制成功达尔文1代和达尔文2代类脑计算芯片,用芯片去模拟大脑神经网络的结构与功能机制,在图像、视频、自然语言的模糊处理中具有优势。而这次的成果是将792颗我国自主产权的达尔文2代类脑计算芯片集成在3台1.6米高的标准服务器机箱中,形成了一台强大的机架式类脑计算机。
那么,这种高效能低功耗是如何实现的呢?项目研究骨干马德副教授说,大脑神经元的工作机理是钾离子钠离子的流入流出导致细胞膜电压变化,从而传递信息。“可以简单理解为,一个神经元接受输入脉冲,导致细胞体的膜电压升高,当膜电压达到特定阈值时,会发出一个输出脉冲到轴突,并通过突触传递到后续神经元从而改变其膜电压,实现信息的传递。”
这里很重要的一点是异步运行,也就是信号来的时候启动,没有信号就不运行。类脑芯片的工作原理就类似于生物的神经元行为,通过脉冲传递信号,这样就能实现高度并行,效率提升。
真正像脑一样“思考”
有了硬件,还得有软件。
项目研究骨干金孝飞介绍,每颗芯片上有15万个神经元,每4颗芯片做成一块板子,若干块板子再连接起来成为一个模块。这台类脑计算机就是这样像搭积木一样搭起来。
说起来容易,可要让这么多神经元能够互联并且可拓展从而实现高效的联动组合,同时要把杂乱无章的信息流有序分配到对应的功能脑区,可不那么简单。
为此,科研人员专门研发了一个面向类脑计算机的类脑操作系统——DarwinOS。
这款达尔文类脑操作系统面向冯·诺依曼架构与神经拟态架构的混合计算架构,实现了对异构计算资源的统一调度和管理,为大规模脉冲神经网络计算任务提供运行和服务平台。项目研究骨干吕攀介绍说:“目前达尔文类脑操作系统的功能任务切换时间达微秒级,可支持亿级类脑硬件资源管理。”
由此,类脑计算机研究的价值真正得以实现——既可以应用于生活中的智能任务处理,也可以应用于神经科学研究,为神经科学家提供更快更大规模的仿真工具,提供探索大脑工作机理的新实验手段。
目前,浙江大学与之江实验室的科研人员基于Darwin Mouse类脑计算机已经实现了多种智能任务。研究者将类脑计算机作为智能中枢,实现抗洪抢险场景下多个机器人的协同工作,涉及到语音识别、目标检测、路径规划等多项智能任务的同时处理,以及机器人间的协同。同时,还用类脑计算机模拟了多个不同脑区,建立了丘脑外侧膝状核的神经网络模型,仿真了不同频率闪动的视觉刺激时该脑区神经元的周期性反应;借鉴海马体神经环路结构和神经机制构建了学习-记忆融合模型,实现音乐、诗词、谜语等的时序记忆功能;实现了脑电信号的稳态视觉诱发电位实时解码,可“意念”打字输入。
记者在实验现场看到,3台外形相似的机器人,在经过简单的训练后,合作开展抗洪救险任务。只见1号机器人凭借自带摄像头开始在场地巡逻,当发现堤坝缺口后,就呼叫负责工程的3号机器人前来修坝,同时搜寻受伤人员,当发现倒在地上的人体模型后,又呼叫负责救援的2号机器人。3号机器人和2号机器人赶来执行任务,1号机器人又去别的地方巡逻了。
这一幕似乎并不新鲜,现有的机器人也能做到。但最大的不同在于这几个机器人是在类脑计算机的控制下通过语音开展移动指令,并接受任务分配。“不同机器人的任务可以通过指令切换,也就是说它们的功能并不是固定的,而是通过不同脑区来操控的,1号机器人现在干巡逻的活,过会又可以变成负责救援或者工程。”项目研究骨干李莹副教授说。
在另一个实验场景中,课题组成员给计算机演唱一首歌其中的两句,然后,计算机就能通过回想把后续的歌曲内容“唱”出来。
“这是类脑计算机通过模拟海马体记忆机制,实现对大脑内部记忆信息的存取,与我们常用的检索功能不同。”项目研究骨干唐华锦教授说,Darwin Mouse类脑计算机通过借鉴海马体网络结构以及神经机制建立记忆模型架构,可以模拟海马体的记忆-学习功能,通过记忆的脉冲编码,同一模型就可以学习与记忆语音、歌曲、文本等不同类型数据。
类脑计算机将如何“进化”
1946年诞生的世界第一台计算机重达28吨,运算速度为每秒5000次的加法运算,然而在以后的70多年里,计算机技术飞速发展。类脑计算机的发展速度很有可能也会令人惊讶。
别看现在的类脑计算机是个“大块头”,科学家们表示,随着达尔文芯片及其他硬件的不断迭代升级,体积缩小将指日可待。未来类脑计算机或将植入手机、机器人,产生新的智能服务体验。
与硬件上的更新相比,如何让类脑计算机变得更聪明是科学家们下一步研究的重点。
目前,市面上的传感器输入的信号还是以数字为主,在应用到Darwin Mouse类脑计算机上,要加一个编码层,将信号转换为脉冲式的,而在这个过程中,信息有丢失和损伤,会在一定程度上降低计算机的功效。如果能解决这个问题,类脑计算机就能变得更加智能。
当前,类脑计算研究还处于初级阶段,Darwin Mouse类脑计算机,无论从规模还是智能化程度上都与真正的人类大脑还有很大的差距,但其意义在于能够为这种技术路径提供一个重要的实践样例,为研究人员提供一个工具和平台,验证类脑算法,以更强的鲁棒性、实时性和智能化去解决实际的任务。
浙江大学和之江实验室研究员的目标是,希望随着神经科学发展和类脑计算机的系统软件、工具链及算法的成熟,有朝一日能够让类脑计算机像冯·诺依曼架构计算机一样通用化,真正像大脑一样高效工作,与冯·诺依曼架构并存与互补去解决不同的问题。
一位业内人士表示,从加减乘除这样的数值计算方式,到模拟大脑的脉冲计算方式,这是一次重要的计算模式的变革。
潘纲说:“我们希望能够像生物进化一样,不断地让达尔文系列类脑计算机朝着人类智能的方向发展,以超低功耗提供更强的人工智能。”


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|国立浙江大学论坛

GMT+8, 2024-11-22 05:06 , Processed in 1.808219 second(s), 9 queries , MemCache On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表