美国CRS:《半导体和人工智能报告》
  • 发布机构:美国国会研究服务部(CRS)
  • 发布人:美国国会研究服务部(CRS)
  • 发布时间:2024-06
  • 报告类型: 行业
  • 关键词:人工智能,半导体,美国
  • 起始页码:1
  • 总页数:3
  • 报告摘要:

    2023年9月18日,美国国会研究服务部(CRS)发布《半导体和人工智能》报告。报告指出,人工智能(AI)的日益普及引起了美国国会的关注,许多国会议员正在考虑AI监管提案。AI的技术进步在很大程度上得益于底层计算硬件(也称为半导体、集成电路、微电子学或简称芯片)的进步,这些硬件提供了更强的数据处理能力以改善AI系统开发。报告简要描述了AI使用的半导体类型及其供应链问题、所面临的半导体监管挑战,并为提升美国AI竞争力提出了政策建议。

    一、AI模型中使用的半导体芯片

    半导体芯片旨在实现处理、存储、传感和传输数据或信号等功能。AI模型用到了不同类型芯片,包括储存大量数据的存储芯片和处理数据的逻辑芯片。据Gartner预测,AI用芯片的收入有望从2022年约440亿美元快速增长至2027年的1200亿美元。

    早期的AI模型使用中央处理器(CPU)进行训练和推理。尽管CPU仍然足以进行推理,但领先的AI模型现在主要使用图形处理器(GPU)进行训练。GPU能并行处理信息,而CPU是串行处理信息。并行处理允许AI模型通过划分任务并同时执行任务来使用大量数据进行更快训练。此外,许多芯片设计公司越来越多地提供专为特定应用设计的定制逻辑芯片,即专用集成电路(ASIC)或加速器。用于AI的逻辑芯片也统称为AI芯片。

    为了训练出最大AI模型,许多逻辑芯片与数据中心或超级计算设施中的其他半导体硬件(例如内存和网络芯片)以大型集群的形式连接在一起。例如,Meta正在为AI研究构建一台超级计算机,预计包含1.6万个GPU,而初创公司Inflection AI正在为其AI模型构建一个包含2.2万个GPU的集群。Meta、Tesla和NVIDIA等私营公司建造的一些超级计算机比世界上许多国有超级计算机还要大。

    训练AI模型的公司可以购买和维护其芯片硬件基础设施,也可以通过付费购买云服务来远程访问所需硬件训练模型。根据美国联邦贸易委员会的说法,“云服务可能很昂贵,而且目前只有少数公司提供,这提高了反竞争行为的风险。”美国领先的AI应用云服务提供商包括亚马逊Web AI Services、微软Azure AI和谷歌Cloud AI。

    AI训练通常受益于AI芯片的两个技术参数的改进:更高的数据处理能力(一般以万亿次/秒(trillions of operations per second,TOPS)为单位进行衡量)和更快的芯片间传输速度。许多大型AI模型(例如OpenAI的GPT模型)和领先的AI研究论文都没有明确说明用于AI模型训练的计算能力。此外,没有标准方法或工具来衡量用于训练AI模型的计算能力,因为不同公司的TOPS计算方式可能不同,并且这可能不是评估和比较AI模型的最佳指标。AI训练计算能力的透明度和全球衡量计算能力的标准方法可能会支持AI监管工作。

    二、AI芯片的设计与制造

    总部位于美国的公司,无论是老牌公司还是初创公司,在人工智能应用专用逻辑芯片的设计方面处于全球领先地位。然而,这些芯片设计公司中的绝大多数完全依赖合同制造服务来生产和封装其设计。由于最高性能的人工智能芯片需要世界上最先进的制造工艺,因此大多数人工智能芯片设计人员依赖于目前有能力生产其设计的两家逻辑芯片制造公司:台积电(TSMC)和三星。

    从人工智能研究领域的收入和使用情况来看,排名第一的人工智能芯片设计商是总部位于美国的NVIDIA,该公司是2000年代初首批将GPU推向大众市场的公司之一。按照计算能力的高低排序,NVIDIA推出的用于AI的GPU产品包括V100(2017年)、A100(2020年)和H100(2022年)。

    按公司估值计算,总部位于美国的顶级人工智能芯片设计初创企业包括SambaNova、Cerebras和Graphcore。由于台积电等公司的合同制造服务成本高昂且获得的机会有限,美国初创企业等小型实体经常面临原型设计和生产设计的挑战。由于人工智能的竞争力受益于芯片硬件的进步,促进美国公司获得原型设计和制造服务可能会促进长期创新。

    三、美国AI芯片的出口管制

    2022 年10月,美国商务部实施了管制措施,要求向中国和澳门出口某些用于人工智能培训和构建超级计算机等应用的先进逻辑和其他芯片需获得许可证。该管制措施适用于芯片间传输速度为每秒600GB或更高且计算能力超过600TOPS的逻辑芯片。根据这一定义,领先的人工智能芯片(包括NVIDIA的A100和H100)向中国和澳门的出口受到限制。 近年来,中国市场约占英伟达年总收入的四分之一。

    2022年11月,NVIDIA开始营销A800芯片,该芯片的芯片间传输速度较低,为每秒400GB(而A100的传输速度为每秒600GB),以“提供不受新许可证约束的替代产品”根据其年度报告,向中国客户提出“要求”。同样,2023年3月,NVIDIA推出了一款不需要许可的H800芯片,作为受管制的最新H100产品的替代品。

    此外,2022年10月的出口管制将限制全球芯片制造工厂在未经许可的情况下为总部位于中国的芯片设计公司制造某些先进芯片,前提是该制造商使用原产于美国的技术或软件(即《高级计算外国直接产品规则》)。由于美国是全球半导体制造设备生产的领先者,这一规则将适用于大多数外国芯片制造公司,包括台积电,该公司此前为必人等中国AI芯片设计公司生产先进芯片。这些规则要求向中国和澳门的芯片制造商出口某些先进制造设备需要获得许可,以阻碍制造商生产先进芯片的能力。出口管制旨在限制中国和澳门购买或生产某些可用于人工智能应用的先进芯片的能力。然而,中国人工智能公司使用国内外云服务提供商来训练人工智能模型并没有受到限制。

    四、政府行动及相关政策建议

    1. 根据2021年1月美国国会颁布的《2020年国家人工智能倡议法案》,提升美国在人工智能研究和开发方面的领导地位并为美国人工智能研究资源制定路线图。

    2. 根据第13859号行政命令,美国国家标准与技术研究院进行了一项研究,建议联邦政府“致力于更深入、一致、长期地参与AI标准制定活动”,涉及开发“量化衡量和表征人工智能技术的指标,包括但不限于硬件及其性能方面”。

    3. 2022年8月拜登总统签署了“芯片和科学法案”以扩大美国国内半导体制造能力以及下一代半导体技术研发,国会可以就扩大先进逻辑芯片的国内制造能力和改善小型实体的制造可及性的有效性行使监督权。

    4. 由于许多AI模型是使用云服务进行训练,国会可以考虑进行出口管制改革,使商务部能对出售大量计算能力的云服务提供商行使监管权。


  • 原文连接:
  • 附件下载:
    IF12497.pdf 点击下载