微软:《人工智能治理:未来蓝图》
  • 发布机构:微软公司
  • 发布人:微软公司
  • 发布时间:2023-08
  • 报告类型: 行业
  • 关键词:人工智能,指导方针,美国
  • 起始页码:1
  • 总页数:42
  • 报告摘要:

    2023525日,美国微软公司发布报告《AI治理:未来蓝图》(Governing AI: A Blueprint for the Future),阐述了其对未来人工智能治理的愿景。在前言中,微软副董事长兼总裁Brad Smith概述了公司的道德人工智能方法,并呼吁制定强有力且有效的人工智能监管政策。

    报告分为两部分,第一部分详细介绍了政府在制定人工智能的政策、法律和法规时应考虑的五项指导方针;第二部分侧重于微软对道德人工智能的承诺。

    一、人工智能治理:未来的法律和监管蓝图

    报告指出,各国政府正在寻求或制定治理人工智能的新蓝图。基于众多紧迫的问题和议题,本报告在此提出一个方案,以帮助人工智能治理取得更快进展。该方案认同人工智能可以改善人们的生活,同时也制定了新的治理措施。基于政府和私营部门的倡议,该方案为人工智能治理提出五项建议:

    1.搭建并执行以政府为主导的人工智能安全新框架

    微软以政府工作的最新进展为基础,通过以下四种方式来提升人工智能的安全性:(1)微软回应美国白宫最近的倡议,承诺将实施美国国家标准与技术研究院(NIST)的人工智能风险管理框架。(2)将通过采取新措施,进一步加强与高风险人工智能系统相关的工程实践,来完善微软现有的人工智能测试工作。(3)政府可以通过行政命令推进治理进程,要求向美国政府提供关键人工智能系统的供应商,应当自证其正在实施NIST的人工智能风险管理框架。(4)与其他行业领导者和政府合作,制定与高度可靠的基础模型相关的新标准。

    报告指出,人工智能的快速发展带来了新的安全问题,并且通过合作制定可操作的标准,以帮助评估和解决这些问题。OpenAIGoogleAnthropic和其他人工智能公司的领导者已提出了重要的想法,为未来人工智能安全的进展奠定基础。

    2.控制关键基础设施的人工智能系统必须具备有效的安全防护措施

    展望人工智能的未来,控制新技术潜在风险的基本方法一直以来都是有效的。该方法就是提前识别出新产品何时失控,并部署有效的安全刹车机制,以确保人工监督的有效性、及时性。

    随着人工智能变得越来越强大,电网、供水系统和城市交通等关键基础设施交由人工智能控制的程度日益加深。因此,我们需要安全刹车机制来确保这些系统处于人类控制之下。

    新的安全要求能为控制关键基础设施运行的人工智能系统进行安全刹车,从而确保基础设施人工监督的有效性、弹性和稳健性。政府将定义控制关键基础设施的高风险人工智能系统的类别,并确保运营商定期测试高风险系统,以确保系统安全措施有效。

    3.基于人工智能技术架构搭建范围更广的法律监管框架

    随着对人工智能潜在监管问题的深入思考,我们需要建立一个与人工智能技术本身相符的法律和监管框架。简而言之,法律需要根据不同行为者在管理人工智能技术上的不同角色,赋予他们不同的监管责任。

    在搭建人工智能的法律监管框架时,一方面,需要将现有的法律保护措施应用于人工智能。具体措施如下:(1)与客户合作,推动他们使用最佳方式来合法、负责地部署人工智能。(2)监管机构需要新的人工智能专业知识和能力。(3)支持广泛的教育倡议,为立法者、法官和律师提供人工智能技术和负责任的人工智能信息。(4)人工智能的快速进步给立法者或执法人员带来了新压力,他们需要了解新的人工智能技术及其工作原理。

    另一方面,针对高水平能力的人工智能基础模型制定新的法律法规。具体举措包括:(1)和其他领先的人工智能开发者共享先进人工智能模型的专业知识,以降低监管门槛。(2)确立开发或部署高水平人工智能模型需要满足的条件。(3)通过对人工智能数据中心运营商施加许可要求,确保有效执行高水平人工智能模型的许可制度。

    4.提升透明度确保学界和公众可利用人工智能技术

    未来,有许多人工智能的政策问题有待认真讨论,包括安全与透明度之间的关系问题。在某些领域,许多专家认为保密对于安全至关重要,尤其是对于国家安全和公共安全。除此之外,透明度也很重要,甚至有助于更好地理解安全需求和最佳实践。

    微软于2018年采用了人工智能伦理准则,并将透明度作为六项基本原则之一。在实施这一原则时,我们意识到在不同情况下提供不同类型的透明度非常重要。生成式人工智能的出现使得这一原则比以往更加重要,这也是需要持续进行研究和创新的关键领域。为了推动该领域的工作,微软向美国白宫做出了以下三项承诺:第一,微软将发布年度透明度报告,向公众介绍其在负责任和安全管理人工智能方面的政策、系统、进展和表现。第二,微软将支持建立一个开放的、供公众查阅的国家高风险人工智能系统注册机构,让公众了解这些系统的使用情况和方式。第三,微软承诺确保其人工智能系统在与公众互动时能够清晰地向其传达系统的能力和不足。第四,微软认同在重要场景中需标记人工智能生成的内容,以便公众知晓所接收的内容

    5.加强公私合作用人工智能解决新技术引发的社会挑战

    微软相信,公共和私营部门可以联合起来利用人工智能来改善世界,其中包括对抗技术变革所带来的挑战。微软对未来保持清醒的认识,并意识到有些人试图将人工智能作为武器而不是工具,技术变革会不可避免地带来难以预料的困难和问题。近年来,人们越来越关注解决民主社会所面临的新风险,这些风险源于人工智能的潜在武器化。我们对未来技术的担忧是合理的,需要共同努力来对抗这种威胁。

    在这一进程中,内容溯源和真实性联盟(C2PA)至关重要。该联盟由AdobeBBCIntelMicrosoftSonyTruepic等公司共同创立,整合了Adobe领导的内容真实性倡议(CAI),该倡议致力于为数字媒体提供历史背景,以及MicrosoftBBC领导的Project Origin倡议,旨在解决数字新闻生态系统中的虚假信息问题。微软将推出一套新的先进溯源工具,帮助公众识别人工智能生成的视听内容并了解其来源。

    二、微软构建造福社会的人工智能系统的方法

    2016年以来,微软一直在运营和构建负责任的AI文化,当时微软首席执行官萨蒂亚纳德拉(Satya Nadella) 强调了关注灌输给创造该技术的人员和机构的价值观的重要性。

    从那时起,Microsoft 定义、发布和实施了道德原则来指导他们的工作,并开发了不断改进的工程和治理系统以将这些原则付诸实践。该公司现在有近350名员工致力于负责任的AI,实施最佳实践来构建旨在造福社会的安全、可靠和透明的AI系统。


  • 原文连接:
  • 附件下载:
    RW14Gtw.pdf 点击下载