高效AI推断的未来:EnCharge AI 的突破性芯片

EnCharge AI的革命性模拟和数字计算融合技术有着巨大的潜力,在预测任务中能够显著提高生成型人工智能的能源效率

“`html

通过新芯片提升GenAI效率。

📷encharge-2024-verma-chip-prototype-01

2024年将成为生成人工智能(GenAI)迈出重要一步的一年,随着企业和消费类电子产品开始运用该技术进行高容量预测,也就是推理。但要实现这一飞跃,我们需要解决在能量受限设备上运行这些复杂AI模型的挑战。EnCharge AI应运而生,这是一家半导体初创公司,刚刚获得了美国国防高级研究计划局(DARPA)的1860万美元补助金,用于开发推理的低功耗电路。

🤝 EnCharge AI正在与普林斯顿大学合作,推进能够彻底改变AI推理的新型电路的发展。EnCharge AI旨在通过结合数字和模拟组件,大幅提高AI运算的能效。他们的方法称为内存计算(IMC),旨在减少内存访问的能耗,这是计算中消耗能量最多的方面。

模拟的力量

✍️ EnCharge AI的突破在于其对模拟电路的创造性运用。尽管长期以来人们已经认识到模拟计算比数字计算更节能,但要让其运作一直是一个挑战。EnCharge AI已经找到了克服障碍的方法。他们并非试图完全在模拟中执行整个计算过程,而是专注于使“累加”操作更加高效。在这种方法中,矩阵乘法仍由数字电路处理,而累加则通过电容器在模拟中完成。这种组合方式使得可以以比传统数字电路低得多的能耗成本进行并行矩阵乘累积计算。

💡 这里的关键洞察是,AI程序极大地依赖于内存密集型任务,通过优化这些任务,可以极大地提高AI计算的效率。EnCharge AI的突破性技术承诺比以往努力高出“30倍”。

🤖 模拟计算的挑战

🐍 模拟计算一直以来都很难实施,许多先前的尝试都失败了。模拟计算的主要问题在于其固有的噪音,这会影响计算的准确性和可靠性。但EnCharge AI通过使用电容器而非测量电流来克服了这一障碍。电容器储存电荷而不是使用电流,减少了噪音,提高了能效。

💪 EnCharge AI方法的另一个优点是其对电容器的经济利用。与以往需要使用奇特制造技术的模拟计算方法不同,电容器很容易融入标准的半导体制造工艺中。实际上,电容器由用于相互连接晶体管的普通金属层制成,因此它们几乎是免费的。

能源效率的重大飞跃

🚀 EnCharge AI的原型已经显示出明显的能源效率提高。在处理八位量化的神经网络推理时,他们已经实现了每瓦特150万亿次操作的处理速率。相比之下,先前的方法如Mythic最多只能实现每瓦特几十TOPS。这意味着EnCharge AI的芯片比以往的解决方案高出“30倍”。

🌐 但效率并不是人工智能市场上唯一的挑战。规模是另一个至关重要的因素。OpenAI和其他组织正在构建极其庞大的模型,拥有数万亿的神经网络权重,这无法完全容纳在芯片上的SRAM缓存中。EnCharge AI的智能软件有效地管理着芯片内外的内存,确保在需要时可访问相关数据,即使数据存储在外部存储器如DRAM中。

问答:Q: EnCharge AI如何解决大型人工智能模型的内存挑战? – A: EnCharge AI的智能软件虚拟访问芯片内外的内存,有效地组织数据以确保高效和快速处理。这种方法允许处理超出芯片SRAM缓存容量的大型模型。 – Q: EnCharge AI的技术适用于推理和训练吗? – A: 尽管最初的产品将专注于推理,但EnCharge AI认为其基于电容器的方法也可扩展到训练。但为实现这一目标,还需要进行更多的软件工作。

前方之路

“` “`html

🏭 EnCharge AI计划销售自己的加速器芯片和配套的边缘计算系统板,针对企业数据中心、汽车和个人电脑中的人工智能应用。他们的目标是为尺寸、成本和能效至关重要的能源受限环境提供解决方案。

🔮 展望未来,EnCharge AI的突破可能对人工智能行业产生深远影响。他们在模拟计算和内存优化方面的创新可能为更节能的人工智能推理和训练铺平道路。这可能导致人工智能在从消费类电子产品到关键工业流程的各种应用中被采纳。

📚 参考资料:1. ChatGPT和Llama:由OpenAI和Meta提供的人工智能模型 2. 边缘计算和人工智能 3. 用于人工智能的模拟计算:挑战与突破 4. 内存计算进行推理优化 5. Nvidia和Intel推出的新型人工智能芯片

👥 分享您对这一激动人心发展的想法!你认为EnCharge AI的突破将如何塑造人工智能推理的未来?在下方评论中告诉我们,并将此文章与您的朋友在社交媒体上分享!🚀

“`