正文内容 评论(0)
当地时间4月17日,芯片大厂英特尔(Intel)公司宣布,其已经建立了世界上最大的神经拟态系统,拥有11.5 亿个神经元和1280亿个突触,速度最高可达人脑的 200 倍。
这个代号为 Hala Point 的大型神经拟态系统最初部署在桑迪亚国家实验室,采用英特尔的 Loihi 2 处理器,旨在支持未来类脑人工智能 (AI) 的研究,并应对与当今人工智能的效率和可持续性相关的挑战。
据介绍,Hala Point 推进了英特尔的第一代大规模研究系统 Pohoiki Springs,并进行了架构改进,实现了 10 倍以上的神经元容量提升和高达12倍的性能提升。
英特尔研究院神经拟态计算实验室主任Mike Davies表示:“当今人工智能模型的计算成本正在以不可持续的速度增长。该行业需要能够扩展的全新方法。出于这个原因,我们开发了 Hala Point,它将深度学习效率与新颖的类脑学习和优化功能相结合。我们希望与Hala Point的研究能够提高大规模人工智能技术的效率和适应性。”
Hala Point:集成了1152 个 Loihi 2 和 2300 多个嵌入式 x86 处理器
据介绍,Loihi 2 神经拟态处理器是 Hala Point 的基础,它应用了类脑计算原理,例如异步、基于事件的脉冲神经网络 (SNN)、集成内存和计算,以及稀疏且不断变化的连接,以实现能耗和性能的数量级提升。神经元直接相互通信,而不是通过内存进行通信,从而降低了整体功耗。
Loihi 2基于Intel 4工艺,核心面积31mm?,集成了128个Neuromorphic Core(每个核心拥有192KB缓存) 和 6个低功耗的英特尔X86核心,得益于制程工艺的大幅提升,Loihi 2的神经元数量提升到了100万个,是第一代的7.8倍,不过突触数量略微降低至1.2亿个。
Loihi 2可以根据神经元模型要求,最高分配4096个变量状态。这些方面的提升,使得Loihi的处理速度达到第一代Loihi 的10 倍。
Hala Point 将 1152 个在Intel 4 工艺节点上生产的 Loihi 2 处理器封装在一个微波炉大小的六机架单元数据中心机箱中。该系统支持多达 11.5 亿个神经元和 1280 亿个突触,分布在 140,544 个神经拟态处理核心上,最大功耗为 2,600 瓦。它还包括 2,300 多个嵌入式 x86 处理器,用于辅助计算。
Hala Point 将处理、内存和通信通道集成到大规模并行化结构中,提供总计 16 PB/s 的内存带宽、3.5 PB/s 的核心间通信带宽和 5 TB/s 的芯片间通信带宽。该系统每秒可以处理超过 380 万亿个 8 位突触和超过 240 万亿次神经元操作。
应用于仿生脉冲神经网络模型当中,Hala Point系统可以执行其 11.5 亿个神经元的全部容量,速度比人脑快 20 倍,在较低容量下的速度最高可达 200 倍。虽然Hala Point不用于神经科学建模,但它的神经元容量大致相当于猫头鹰或卷尾猴的大脑皮层。
基于 Loihi 的系统可以执行 AI 推理并解决优化问题,使用比传统 CPU 和 GPU 架构快 100 倍的能量和 50 倍的速度,通过利用高达 10:1 的稀疏连接和事件驱动的活动,Hala Point 的早期结果表明,该系统可以实现高达 15 TOPS/W 的深度神经网络效率无需批量收集输入数据,这是 GPU 的常见优化,可显着延迟实时到达的数据(例如来自摄像头的视频)的处理。
虽然仍在研究中,但未来能够持续学习的神经拟态 LLM 可以通过消除对不断增长的数据集进行定期重新训练的需要来节省千兆瓦时的能源。
英特尔表示,Hala Point 是第一个在主流 AI 工作负载上展示最先进计算效率的大型神经拟态系统。
表征表明,在执行传统的深度神经网络时,它可以支持高达每秒 20 万亿次操作,即 20 petaops,效率超过 15 万亿次8bit操作/秒/瓦(TOPS/W)。这可媲美并超过基于图形处理单元 (GPU) 和中央处理器 (CPU) 构建的架构所达到的水平。
Hala Point的独特功能可以为人工智能应用提供未来的实时持续学习,如科学和工程问题解决、物流、智慧城市基础设施管理、大型语言模型(LLM)和人工智能代理。
Hala Point的作用与重要性
桑迪亚国家实验室的研究人员计划将Hala Point用于先进的大脑规模计算研究。该组织将专注于解决设备物理、计算机体系结构、计算机科学和信息学中的科学计算问题。
“与 Hala Point 合作提高了我们 Sandia 团队解决计算和科学建模问题的能力。使用这种规模的系统进行研究将使我们能够跟上人工智能在从商业到国防再到基础科学等领域的发展步伐,“桑迪亚国家实验室Hala Point团队负责人Craig Vineyard说。
目前,Hala Point是一个研究原型,将提高未来商业系统的能力。英特尔预计,这些经验教训将带来实际的进步,例如LLM能够不断从新数据中学习。这些进步有望大大减轻广泛部署人工智能带来的不可持续的培训负担。
最近将深度学习模型扩展到数万亿个参数的趋势暴露了人工智能面临的令人生畏的可持续性挑战,并强调了在最低硬件架构级别进行创新的必要性。
神经拟态计算是一种全新的方法,它借鉴了神经科学的见解,将内存和计算与高度精细的并行性集成在一起,以最大限度地减少数据移动。在本月的声学、语音和信号处理国际会议 (ICASSP) 上发表的结果中,Loihi 2 展示了新兴小规模边缘工作负载的效率、速度和适应性提升几个数量级的提升。
Hala Point 在其前身 Pohoiki Springs 的基础上进行了大量改进,现在为主流传统深度学习模型带来了神经拟态性能和效率提升,尤其是那些处理视频、语音和无线通信等实时工作负载的模型。例如,爱立信研究公司正在应用Loihi 2来优化电信基础设施的效率,正如今年世界移动通信大会所强调的那样。
据英特尔介绍,接下来,Hala Point 将向桑迪亚国家实验室的交付标志着英特尔计划与其研究合作者共享的新型大型神经拟态研究系统系列的首次部署。进一步的开发将使神经拟态计算应用能够克服功耗和延迟限制,这些限制限制了人工智能功能在现实世界中的实时部署。
英特尔与由 200 多个英特尔神经拟态研究社区 (INRC) 成员组成的生态系统(包括全球领先的学术团体、政府实验室、研究机构和公司)一起,致力于推动类脑 AI 的界限,并在未来几年内将这项技术从研究原型发展为行业领先的商业产品。
- 热门文章
- 换一波
- 好物推荐
- 换一波
- 关注我们
-
微博:快科技官方
快科技官方微博 -
今日头条:快科技
带来硬件软件、手机数码最快资讯! -
抖音:kkjcn
科技快讯、手机开箱、产品体验、应用推荐...