当地时间5月5日,美国商务部下属的人工智能标准与创新中心(CAISI)宣布与谷歌DeepMind、微软、xAI达成协议,三家科技巨头将在新一代人工智能模型公开发布前,提前向美国政府开放模型权限,以便开展国家安全风险审查。CAISI声明称,新协议允许其在模型应用前评估,研判能力及潜在风险,要求实验室在发布前开放完整版本,部分是未命名的内部迭代版本。
CAISI主任克里斯·福尔表示,独立严谨的测量科学对理解前沿人工智能及其国家安全影响至关重要,扩大的行业合作有助于扩大公共利益工作。
此次合作是在2024年拜登政府与OpenAI、Anthropic达成协议基础上的扩展,至此美国五大主流AI实验室已全部纳入预发布审查框架。CAISI透露已完成40余次模型评估,涵盖未公开的尖端AI模型,测试场景包括“减配安全护栏”版本,企业开发者会提交移除安全防护机制的版本供排查风险,部分测试在机密环境进行。
微软表示将与美国政府科学家合作,深入测试AI系统在极端情境下的表现,共同建立测试数据集与验证流程,强化模型安全性,此前微软也曾与英国AI安全研究机构签署类似协议。
据CNBC报道,白宫考虑成立新的AI工作组,探索潜在监督程序,包括模型发布前审查计划,工作组可能通过行政命令成立,但白宫称有关行政命令的讨论是猜测,政策声明将来自特朗普总统,这兑现了特朗普政府2025年7月提出的合作审查AI“国家安全风险”的承诺。
近期,美国政府对高阶AI模型安全威胁的关注度升温,Anthropic推出的新一代AI模型“Mythos”提升了黑客攻击与自动化渗透能力,引发关注。近几周,先进人工智能系统研发成果引发热议,美国政府和企业界担忧其助长黑客攻击能力,Anthropic将Mythos推广范围限制在部分公司。Anthropic首席执行官与特朗普政府高级官员讨论了该项目。此前美国国防部将Anthropic列为供应链风险企业,上周国防部与七家人工智能企业合作,未纳入Anthropic,该公司与国防部在AI工具使用权限和安全约束问题上存在纠纷。
CAISI表示协议支持信息共享、推动产品改进,确保政府对人工智能能力和国际竞争状况的理解,开发者常提供减少或取消保障措施的模型。行业观察人士指出,这些“自愿合作”协议已形成事实上的强制性预审查机制。
客服热线:










