欢迎来到证卡票签产业联盟社区

首页 > 访谈

英特尔的Loihi芯片研发

2017-10-08 10:30:45

标签:英特尔 芯片 大脑


本文作者:Michael C. Mayberry博士

英特尔公司副总裁兼英特尔研究院院长

  •       未来,我们将做出更快、更高效的复杂决策,社会和行业问题甚至可以通过自我学习获得解决。

  •      未来,使用图像识别应用的设备可以分析街道摄像头画面,并快速地识别失踪和拐卖人口。

  •      未来,红绿灯可以智能地根据车流和交通情况调节时间,减少交通拥堵,让街道更畅通。

  •      未来,机器人将具备更强的自主性,并且其能效比将实现前所未有地提高。

     我们对于大量动态的、非结构化的自然数据的收集、分析和决策的日益增长的需求,正在驱动对于强大的计算力逐渐增长的需求,这一需求或许已经超过了传统CPU或者GPU计算力增长的速度。为了让科技创新与时代发展的速度保持一致,英特尔在过去六年中一直在致力于研究特定架构的研发来加速传统IT架构变革。

    我们在神经元计算领域的工作一开始建立在与加利福尼亚理工学院教授Carver Mead的合作之上,Carver教授在半导体设计领域享有盛名。芯片科学、物理学和生物学的结合为新想法的诞生提供了新的土壤。这一想法简单,但具有革命性:依照人类大脑开发机器。这一领域的研究逐渐获得了更多学科的支持和合作。

\

       作为英特尔研究院工作的一部分,英特尔发布了其第一款代号为Loihi的自我学习神经元芯片,通过基于环境的各种反馈学习模式来模拟大脑的功能。这能利用数据来学习和推理的高效芯片,能实现自我进化,也不需要以传统的方式进行训练,而是使用异步脉冲的方式进行计算。

推出Loihi实验芯片

 

      正处在研发阶段的英特尔Loihi神经元芯片通过神经元之间的脉冲模式进行数据传输,完全模仿了人类大脑的功能,从而赋予芯片从环境反馈中“自我学习”的能力。神经形态芯片模型的灵感来自于神经元通信和学习的方式,利用了可根据时间调节的脉冲和塑料触突。基于模式和关联,这将帮助计算机实现自组织,做出决策。

\

      Loihi芯片提供了非常灵活的片上学习能力

      将训练和推理整合至同一块芯片上。这帮助机器实现自动化,实时调整,而无需等待来自云计算平台的下一次信息更新。研究人员已证明,与其他典型的脉冲神经网络相比,在解决MNIST数字识别问题时,以实现一定准确率所需要的总操作数来看,Loihi芯片学习速度提高了100万倍。

      在优化汽车和工业应用,以及个人机器人方面,这款测试芯片的自学能力带来了巨大潜力,例如识别汽车或自行车的运动。在非结构化环境中,这些应用可以受益于自动化操作和持续学习。此外,与通常用于训练人工智能系统的芯片相比,Loihi芯片的能效提升了1000倍。

      2018年上半年,英特尔将与部分大学和研究机构分享Loihi测试芯片。

技术亮点

      Loihi自我学习神经元芯片的技术亮点包括:

  •       全异步神经形态多核心网络,支持多种稀疏、分层和循环神经网络拓扑结构。每个神经元可以与成千上万个其他神经元通信。

  •      每个神经形态核心都包含一个学习引擎,在操作中可以通过编程去适配网络参数,支持监督学习、无监督学习、强化学习和其他学习范式。

  •      芯片的制造采用了英特尔14纳米工艺。

  •      总共提供了13万个神经元和1.3亿个触突。

  •      对于多种算法的开发和测试,实现了极高的算法效率。这些算法包括路径规划、约束满足、稀疏编码、字典学习,以及动态模式学习和适配。

     在计算机和算法创新的推动下,人工智能的变革性力量预计将给社会带来重大影响。今天,英特尔仍在继续驱动摩尔定律的发展,并且持续发挥自身硬件制造行业领导者的优势,为用户带来全新的英特尔至强可扩展处理器、英特尔Nervana技术、英特尔Movidius技术、以及英特尔FPGAs技术。这些技术,都将赋予人工智能开发向云端和数据端迁移的能力。

     在人工智能领域,通用计算技术和用户端的软、硬件都将大有作为。被广泛用于科研计算的英特尔至强融核处理器已经能够帮助解决大量的科学难题。Movidius 神经计算棒也是先前训练模型的1瓦特部署案例。

\
   
    展望未来,英特尔相信,通过模仿大脑工作的方式,神经计算将为我们带来百亿亿次级别的计算量。

文章来自:AI科技评论     新闻投稿邮箱:sid.org@vip.163.com