面对高压Anthropic硬刚美国国防部,坚守AI技术安全底线

周四,人工智能公司Anthropic拒绝了美国国防部(Pentagon)关于放宽其AI技术安全限制的要求。该公司的首席执行官达里奥·阿莫代伊(Dario Amodei)在声明中明确指出:“我们无法在良心上同意他们的要求。”这一表态是在国防部长皮特·赫格塞斯(Pete Hegseth)威胁要将Anthropic从其供应链中剔除之后作出的。
赫格塞斯在一封信中表示,国防部希望Anthropic能够接受“任何合法使用”其工具的要求,这引发了双方之间的激烈争论。阿莫代伊强调,允许AI工具如Claude用于“大规模国内监视”和“完全自主武器”(换句话解释就是没有人操控的、自主的杀人武器)的用途,将会破坏民主价值观和AI技术的安全底线。他指出,这些用例从未包含在与国防部的合同中。
除了Anthropic,美国国防部同时向Google, OpenAI, xAI采购人工智能解决方案,其他三家都已经和国防部签署了“国防部在‘合法的’情况下无限使用其AI产品的合约“,只有Anthropic一家坚持两条使用限制。
根据报道,国防部与Anthropic之间的合同价值高达2亿美元,而该公司的总收入为140亿美元。尽管如此,阿莫代伊表示,他宁愿不与国防部合作,也不愿妥协于可能破坏民主原则的技术应用。他称:“我们的强烈偏好是继续为国防部及我们的战斗人员服务,同时保持这两个请求的保障措施。” “这些威胁并没有改变我们的立场:我们无法在良心上同意他们的请求。”
赫格塞斯威胁,如果Anthropic不遵从,将会利用《国防生产法》(Defense Production Act)来迫使该公司解除其使用限制。此外,他还提到可能将Anthropic标记为“供应链风险”,和中国的华为、俄罗斯的卡巴斯基一样从美国国防部供应链中剔除。
国防部长赫各塞斯的两项威胁本身自相矛盾,一个是“强制使用”,另一个是“有风险,禁止使用”,报复意图明显。
对此,一位不愿透露姓名的前国防部官员表示,这些措施的依据极为薄弱。“合法性是五角大楼作为最终用户的责任。”
阿莫代伊在解释Anthropic的立场时进一步指出,目前的AI系统尚不足以支持完全自主武器,他表示:“即使是今天最先进、最强大的AI系统也不够可靠,无法驱动完全自主武器。”他重申,Anthropic不会故意提供可能危及美国战斗人员和民众安全的产品。
此外,阿莫代伊还提到,AI可以汇编数据,以创建一个人生活的全面图景。“AI可以用来自动化地、大规模地组装分散且看似单独无害的数据,从而形成任何人的全面生活图景。”他认为,这种潜力同时也带来了巨大的风险。“我深信使用AI捍卫美国及其他民主国家的重要性。”
随着双方关系日益紧张,赫格塞斯曾要求与阿莫代伊进行会晤,而阿莫代伊则希望赫格塞斯能重新考虑这些要求。虽然国防部声称并不打算将Anthropic的工具用于监视或自主武器,但这种矛盾却让外界对未来合作产生疑虑。
目前,Anthropic已准备好如果被剔除出国防部,将协助平稳过渡至其他供应商。与此同时,该公司仍然致力于与国防部进行研发合作,以提高AI系统的可靠性。
今天,您可能是一位离不开AI产品的用户,当您在使用Anthropic Claude, Google Gemini, OpenAI ChatGPT和xAI的Grok的时候,从本次事件中这四家公司的表现您会如何评价这四家公司而选择其产品呢?
评论
加入讨论
请登录后发表评论
还没有评论
登录成为第一个评论的人。