作为推动人工智能(AI)行业快速发展的三大要素之一,算力是 AI 发展的重要基础。如果算力跟不上算法、数据的发展,AI 行业也很难有新的颠覆性突破出现。

而芯片,是算力的核心,决定了平台的基础设施和发展生态

近日,包括 OpenAI 人员在内的 19 位业内专家在一篇最新报告中将硬件作为 AI 安全治理的重点。这在一定程度上表明,芯片在 AI 行业的发展中正起着越来越重要的作用。

然而,当前用于 ChatGPT、Sora 等模型训练的 AI 芯片大多依赖电力供能,巨大的使用需求让其成为了庞大的耗能体

例如,作为最热门的 AI 处理器之一,英伟达的 AI 芯片 H100 的峰值功耗高达 700 瓦,超过了普通美国家庭的平均功耗。专家预测,随着大量 H100 芯片被部署,其总功耗将与一座美国大城市不相上下,甚至超过一些欧洲的小国家。

图片

图|英伟达AI处理器 DGX H100。

因此,研发节能高效的 AI 芯片已成为学界、业界高度关注的研究方向之一,对 AI 行业的可持续发展至关重要。

如今,来自美国宾夕法尼亚大学、诺基亚贝尔实验的研究团队提出了一种新型 AI 芯片——利用光波进行复杂数学运算,从而提升计算机处理速度并降低能耗。这一研究成果有望为解决当前芯片能耗问题带来新的可能。

相关研究论文以“Inverse-designed low-index-contrast structures on silicon photonics platform for vector-matrix multiplication”为题,已发表在 Nature 子刊 Nature Photonics 上。

图片

该论文的通讯作者、本杰明·富兰克林奖章获得者、宾夕法尼亚大学 H. Nedwill Ramsey 教授 Nader Engheta 表示,由于生产芯片的商业代工厂的限制,这种设计已经可以用于商业应用,并有可能被改装用于图形处理器(GPU)。“它们可以采用硅光子公司的平台作为附加组件,这样就可以加快训练和分类的速度。”

此外,Engheta 教授也表示,除了速度更快、能耗更低之外,这种硅光子芯片还具有隐私方面的优势:由于许多计算可以同时进行,因此无需在计算机的工作内存中存储敏感信息,这使得未来采用这种技术的计算机几乎无法被黑客攻击。

提速、节能,硅光子芯片是如何做到的?

目前,AI 算法呈现出复杂化和高度并行化的趋势,需要进行大量的数学运算,如矩阵乘法、向量运算等。而传统的计算设备往往无法满足这种高速、高效的计算需求。

在进行复杂数学运算时,传统计算设备往往消耗大量能源,能耗已成为制约 AI 技术发展的重要因素之一。而利用光波进行计算的新型芯片具有能耗低、高效等优点,可以有效解决能耗问题,推动 AI 技术的可持续发展。

光子学作为一门新兴的技术领域,在 AI 领域的应用前景广阔。利用光波进行复杂数学运算,不仅可以提高计算速度、降低能耗,还可以在硅光子平台等基础上实现更多功能,如量子计算、光学神经网络等,为 AI 技术的发展开辟新的技术可能性

研究团队通过使用将纳米材料与硅光子平台相结合的方法,成功实现光波与物质的相互作用,从而得到高效的数学运算。这项技术的实现主要有 3 个关键点:

首先是光波计算。光波是一种电磁波,具有高速传输、高频率和低能耗的特点。通过利用光波的这些特性,可以实现高效的数学计算。

其次是纳米材料。纳米材料尺寸微小,可以在纳米尺度上进行精确控制。通过在纳米材料上施加电场或光场等外界作用,可以实现对光波的精确调控和控制。

此外,新型芯片还利用了硅光子平台。硅光子学是利用硅基材料制造光电子器件的技术,具有集成度高、成本低廉、光电转换效率高等优点。在新型芯片中,硅光子平台用于实现光波的传输、调制和探测。

图片

图|基于硅光子学的逆向设计元结构,用于执行 2 × 2 和 3 × 3 矢量矩阵乘法。

硅光子平台为光波传输提供通道,经过调制的光波可以在芯片内部进行自由传输,完成各种数学运算操作。在完成数学运算后,通过在芯片中添加光波探测器,可以实现对光波的快速检测和信号读取,完成对光波的探测和检测,从而得到最终的计算结果。

图片

图|模拟与实验结果比较。a)实验的显微照片,显示了几个 2 × 2 和 3 × 3 内核和各种校准结构,3 × 3 内核已放大显示;b、c)测量的透射率值的比较;d、e)分别是 2 × 2 和 3 × 3 元结构的测量透射率值(细实线)和 3D 模拟结果(粗实线)与波长的关系。垂直灰线为 λ0 = 1.525 μm 处的设计波长。尽管 p2DEIA(parametric 2D electromagnetic inverse algorithm)模型存在限制且测量存在缺陷,但目标、p2DEIA、3D 和 λ0 = 1.525 μm 处的测量透射值之间的良好一致性表明 p2DEIA 作为计算工具可成功用于 3D 平面结构的逆向设计。

需要注意的是,尽管该项研究取得了一些重要的进展,并为 AI 行业提供了新的解决方案,但仍然存在一些局限性,如下:

1. 界面误差影响:该论文提到,p2DEIA 模型在处理大型结构时可能引入一些界面误差。这些误差可能源于接口处的模型不完全匹配或未考虑到的出射散射。对于更大的结构,这种误差可能会进一步增加,因此可能需要更复杂的接口模型来准确描述出射散射和非传播模式的存储能量。

2. 计算资源需求:虽然 p2DEIA 模型能够在处理大型结构时显著减少计算资源的需求,但对于更大的结构,仍可能需要更多的计算资源来进行模拟和优化。特别是在进行大规模逆向设计时,需要进行数百次迭代的模拟,这可能需要更强大的计算设施。

3. 光子集成技术限制:虽然论文中提到了将纳米材料与硅光子平台相结合的方法,但该方法仍然受到光子集成技术的一些限制。例如,可能存在制造纳米结构的复杂性,以及与硅光子平台的集成可能会受到材料兼容性和工艺兼容性的影响。

4. 应用场景适用性:虽然该项研究展示了在处理大规模数据时的潜在优势,但是在实际应用中,这些芯片的性能和适用性可能会受到特定应用场景的限制。不同的应用场景可能在能耗、速度、精度等方面有不同的要求,需要对芯片进行进一步的优化和定制化。

低功耗已成新型芯片必备特点

近年来,为应对 AI 算法的快速发展和应用需求,学界、业界在 AI 芯片领域已经取得了一些重要进展,主要集中在提升计算性能、降低能耗、增强硬件智能等方面。

1. 基于 GPU 的加速器:GPU 加速器已成为 AI 计算的主流选择之一。通过利用 GPU 的并行计算能力,可以大幅提升 AI 算法的运行速度。近年来,为满足人工智能应用的需求,NVIDIA 等公司不断推出性能更强大、功耗更低的 GPU 产品。

2. ASIC 芯片的发展:ASIC(专用集成电路)芯片是针对特定应用场景进行定制设计的芯片,具有性能高、功耗低的特点。近年来,一些公司推出了针对 AI 算法优化的 ASIC 芯片,如 Google 的 TPU(Tensor Processing Unit)和 NVIDIA 的 Tesla 系列。这些芯片在深度学习算法的训练和推理等方面表现出色,在性能上取得了显著的提升。

3. FPGA 芯片的应用:FPGA(现场可编程门阵列)芯片具有灵活性高、功耗低的特点,适合用于加速 AI 算法的运行。一些研究团队正在探索如何利用 FPGA 芯片实现深度学习算法的加速。通过对算法进行硬件优化和并行化设计,可以在 FPGA 芯片上实现较高的性能和能效比。

4. 神经形态芯片的研究:神经形态芯片是一种模仿生物神经网络结构和工作原理的新型芯片。它具有并行性强、能耗低的特点,适合用于实现智能感知和学习功能。一些研究机构和公司正在开展神经形态芯片的研究,试图实现更加智能化的 AI 计算设备。

然而,新型芯片从诞生到成熟应用,还有很长的路要走。

未来,新型芯片仍需要进一步提升其计算性能和能耗效率,实现更高效的数据处理和智能计算。此外,加强新型芯片与现有计算平台和设备的兼容性,实现系统级集成。而且,新型芯片也需要与各个领域融合,包括自动驾驶、医疗健康、智能制造等。

参考链接:

https://www.nature.com/articles/s41566-024-01394-2

https://ieeexplore.ieee.org/document/8945797

https://pubs.rsc.org/en/content/articlehtml/2020/lc/d0lc00521e

来源: 学术头条