OpenAI、Google员工联名声援Anthropic起诉美国国防部

摘要:

3月9日,美国人工智能公司Anthropic起诉国防部一案出现新进展,超过30名来自OpenAI和Google DeepMind的员工向法院提交联合陈述,公开支持Anthropic对美国国防部(DOD)的诉讼立场。

根据庭审文件,这份陈述指出,政府将Anthropic列为“供应链风险”的决定,是对权力的不当和武断使用,并可能对整个人工智能行业产生严重影响。 联署者包括Google DeepMind首席科学家Jeff Dean等业内重量级技术人士。

此前,美国五角大楼正式将Anthropic认定为“供应链风险”,这一标签通常只针对“外国对手”。 报道称,导火索在于Anthropic拒绝允许国防部使用其AI技术对美国公民进行大规模监控,或用于自主开火武器系统;而国防部方面坚持认为,只要用途“合法”,就不应受到私营承包商的限制。

在Anthropic先后对国防部及其他联邦机构提起两起诉讼后,这份支持其立场的“法庭之友”意见书随即出现在案卷中,由此显示出业界内部围绕军方AI应用边界的紧张态势。 有报道称,最早披露这份意见书的是《连线》杂志。

在提交给法院的文件中,这些来自Google和OpenAI的员工强调,如果五角大楼对与Anthropic的既有合同条款“不再满意”,完全可以直接解除合同,转而采购其他领先AI公司的服务,而不是通过供应链风险认定的方式进行“惩罚”。

事实上,在将Anthropic列为供应链风险的几乎同一时间,国防部便与OpenAI达成了一项新的合作协议,此举也在OpenAI内部引发了部分员工的强烈抗议。 这些员工担忧,军方借助商业大模型开展敏感用途测试,会冲击行业在安全边界上的共识。

意见书警告称,如果这类“惩罚性”措施得以延续,将无可避免地削弱美国在人工智能及更广泛科学产业领域的竞争力。 文件进一步指出,这种做法也会对业内关于当代AI系统风险与收益的公开讨论造成寒蝉效应,阻碍技术社区就安全问题进行坦诚辩论。

在当前尚缺乏针对AI使用的成文公共法律框架下,文件认为,开发者通过合同条款和技术手段对系统施加的各种限制,是防止AI被灾难性滥用的重要安全阀门。 Anthropic在与军方合作中划定的“红线”,例如拒绝参与大规模监控和自主杀伤系统,被联名员工视为合理且必要的安全要求,而不是“对国家安全的阻碍”。

值得注意的是,其中不少签署此次法庭陈述的员工,此前已经参与联署公开信,呼吁国防部撤销对Anthropic的供应链风险认定,并要求自家公司管理层公开支持Anthropic,承诺拒绝在未设防的条件下,将自家AI系统提供给军方单方面使用。

业内分析认为,此案不仅关乎一家AI企业能否在合同层面坚持自身安全底线,更将成为美国如何在国家安全需求与AI安全治理之间划线的标志性事件。 随着诉讼推进,科技公司、员工与政府之间围绕军事AI应用的博弈,预计还将进一步升级。

相关文章:

Anthropic起诉美国国防部 要求阻止将其列入国家安全黑名单

查看评论