除了会看会听,还会“闻”。近日,一直致力于模仿人类五感的人工智能又有新突破,通过神经拟态芯片,人工智能已经掌握了丙酮、氨和甲烷等10种气味的神经表征,强烈的环境干扰也不会影响它对气味的准确识别。这项由英特尔研究院与美国康奈尔大学共同参与的研究成果,日前发表于《自然·机器智能》杂志上。
神经拟态即通过模拟人脑神经元的工作机制,让计算机具备像人一样的自然智能特性。英特尔公布的另一项研究显示,将上述768块神经拟态芯片集成在5台标准服务器大小的机箱中形成的神经拟态系统——Pohoiki Springs,已经相当于拥有了1亿个神经元的大脑,而这相当于一个小型哺乳动物的大脑神经元数量。
通过堆叠芯片形成的神经拟态系统似乎让我们看到了“机器可以和人一样聪明”的希望,那神经拟态芯片及大规模集成系统的就绪,是否意味着“强认知、小样本学习”的神经拟态计算有了规模商用的可能?
神经拟态训练无需大量样本
目前深度学习算法作为实现人工智能的重要技术手段,被广泛应用于各类人工智能成果中。对于以深度学习算法为支撑的人工智能成果,数据可以说是研究的血液。数据量越大,数据质量越高,深度学习所表现的性能也就越好。但在不少研究环境中,由于涉及隐私安全以及客观条件限制,有效数据难以获得。
“深度学习虽然取得了长足进步,但仍局限在图像和语音等方面的分类和识别中。”英特尔中国研究院院长宋继强说,人类视觉、语音两类数据容易获得和标注,满足了深度学习的必要条件,研究及应用相对成熟,但味觉和嗅觉的研究却没那么乐观。
对于传统的人工智能来说,主流的深度学习方法,可能需要设置上亿个参数,训练数十万次,才能辨别出猫和狗的区别,更不用说更为陌生的气味识别领域。但是,即便对于一个几岁的婴孩来说,他们辨认动物、识别气味只需要几次就够了。
普通人经过训练能区分三四百种到数千种气味,但现实世界可以区分的气味超过万种。为模拟人类嗅到气味的大脑运行机制,研究人员采用了一套源自人类大脑嗅觉回路结构和动力学相结合的神经算法训练神经拟态芯片,仅需单一样本,神经拟态芯片便可学会识别10种气味,且不会破坏它对已学气味的记忆。
宋继强表示,即便是此前最先进的深度学习解决方案,要达到与神经拟态芯片相同的分类准确率,也需要3000倍以上的训练样本。
“理解大脑的神经网络如何解决这些复杂的计算问题,将为设计高效、强大的机器智能提供重要启示。”英特尔神经拟态计算实验室高级研究科学家纳比尔·伊玛目说,下一步计划将这种方法推进到更广的应用领域,包括从感官场景分析到规划和决策等抽象问题。
芯片向人脑进化成为可能
一只瓢虫的大脑有25万个到50万个神经元,蟑螂的大脑有100万个神经元,斑马鱼的大脑有1000万个神经元,小型哺乳动物大脑有1亿个神经元。
自然界中,即使最小的生物也能解决极为复杂的计算问题,很多昆虫大脑的神经元数目远低于100万个,却能实时跟踪物体、导航和躲避障碍物。而人类大脑由860亿个互相连接的神经元组成,要让人工智能变得和人一样聪明谈何容易。
目前由两个上述神经拟态芯片组成的神经拟态系统有26.2万个神经元,相当于拥有了一只瓢虫的智慧,而由768块神经拟态芯片组成的神经拟态系统的智慧则追上了仓鼠。
如果神经元的组织方式决定了大脑的思考方式,那么实现神经拟态计算,首先需要构建一个模拟大脑神经元工作的计算芯片。宋继强说:“我们试图观察、学习和理解大脑的运行,并在计算机芯片上复制。”
德国海德堡大学物理学家卡尔海因茨·迈耶是神经拟态学工程师们的领军人物,在他看来,人类大脑具有低功耗、容错及无需编程三大特点,虽然人类大脑功率只有20瓦特左右,并且时刻都在失去神经元,却不影响它对这个世界的运算、理解和应对。相比之下,试图模拟人脑的超级计算机却必须预设算法,动辄需要几百万瓦特的功率,失去一个晶体管就能破坏一个微处理器。
宋继强说:“深度学习的功率越来越高,现在即便训练一个图像识别模型,都需要数千瓦特,能源消耗已成为大规模AI部署的障碍。”
而拥有存储和计算一体结构的神经拟态芯片,节约了传统计算架构中处理单元和存储器间通信所消耗的时间和功耗。
2017年,全球首款自主学习神经拟态芯片问世,包含13万个神经元和1.28亿个突触,使芯片向人脑进化成为可能。
如果说深度学习是通过大量标注数据让机器学习解决某一问题,如AlphaGO没有学习象棋前,只会下围棋,神经拟态计算就是通过模拟人脑神经元工作机制,让人工智能不只局限于某一领域。
在神经拟态芯片展示的学会的各种能力中,不仅包括实时识别手势、使用新型人造皮肤阅读盲文、还包括通过自主学习获得视觉地标确定方向及学习新气味,而上述每项功能只消耗数十毫瓦。
有专家认为,这一突破为科学研究需要的可自主、互联的实时、动态数据处理新方法奠定了基础,扩展了蓬勃兴起的边缘计算应用前景。
要商用还需通用计算架构
在深度学习、机器学习之后,神经拟态计算被认为是推动人工智能进入新阶段的重要手段。虽然量子计算也擅长大规模计算,在某些任务中,它的理论可扩展性甚至超过神经拟态系统,但相比神经拟态计算,量子计算离真正商用还有不小的距离。
虽然看上去神经拟态芯片的商用比量子计算更近一步,部分研究机构已展示了很多神经拟态计算应用,但要大规模商用,还需要解决通用性不足的问题。
“距离将产品推向市场,我们还要等待数年。”英特尔神经拟态计算实验室主任迈克·戴维斯说,我们真正感兴趣的是找到一种像冯·诺依曼架构那样相对通用的新型计算架构。这才是真正扩展可应用通用计算产品组合的开始。
研究机构Gartner预测,2025年,神经拟态芯片有望取代GPU,成为先进人工智能部署的主要计算架构。
宋继强不完全认同这种说法:“机器学习在很多领域依然是目前最好的训练、学习手段之一。只有将多种技术灵活的运用到人工智能领域,它才能真正成为惠及民生的产业。”
宋继强强调,Pohoiki Springs等神经拟态系统仍处于研究阶段,设计目的并非取代传统的计算系统,而是为研究人员提供工具来开发和描绘新的算法。
责任编辑:Rex_02