深度学习正遍地开花,但它可能并非人工智能的终极方案。无论是学术界还是产业界,都在思考人工智能的下一步发展路径:类脑计算已悄然成为备受关注的“种子选手”之一。
12月16日至17日,由北京未来芯片技术高精尖创新中心及清华大学微电子学研究所联合主办的“北京高精尖论坛暨2019未来芯片论坛”在清华大学举行,这次论坛上,类脑计算成为多位权威专家热议的人工智能研究方向。
人工智能浪潮下的洋流
类脑计算又被称为神经形态计算(Neuromorphic Computing)。它不仅是学术会议关注的新热点,产业界也在探索之中。
11月中旬,英特尔官网宣布了一则消息:埃森哲、空中客车、通用电气和日立公司加入英特尔神经形态研究共同体(INRC),该共同体目前已拥有超过75个成员机构。
如果说,当下人工智能发展浪潮正波涛汹涌的话,类脑计算就是浪潮之下的洋流。虽不太引人注意,未来却有可能改变人工智能发展趋势。
原因之一是,深度学习虽在语音识别、图像识别、自然语言理解等领域取得很大突破,并被广泛应用,但它需要大量的算力支撑,功耗也很高。
“我们希望智能驾驶汽车的驾驶水平像司机一样,但现在显然还达不到。因为它对信息的智能判断和分析不够,功耗也非常高。”清华大学微纳电子系教授吴华强告诉科技日报记者,人工智能算法训练中心在执行任务时动辄消耗电量几万瓦甚至几十万瓦,而人的大脑耗能却仅相当于20瓦左右。
北京大学计算机科学技术系教授黄铁军也举了一个生动的例子:市场上应用深度学习技术的智能无人机已经十分灵巧,但从智能程度上看,却与一只苍蝇或蜻蜓相差甚远,尽管体积和功耗比后者高很多。
追求模拟大脑的功能
到底什么是类脑计算,它又凭什么赢得学术界和产业界的宠爱?
“类脑计算从结构上追求设计出像生物神经网络那样的系统,从功能上追求模拟大脑的功能,从性能上追求大幅度超越生物大脑,也称神经形态计算。”黄铁军接受科技日报记者采访时说。
类脑计算试图模拟生物神经网络的结构和信息加工过程。它在软件层面的尝试之一是脉冲神经网络(SNN)。