Anthropic 声称遭到大规模蒸馏攻击

2/25/2026, 1:03:34 AM
Lola作者 Lola
Anthropic 声称遭到大规模蒸馏攻击

Anthropic 声称中国人工智能公司发起大规模蒸馏攻击

Anthropic says it's been targeted in massive distillation attacks

领先的人工智能研究公司 Anthropic 对几家中国人工智能公司提出了严厉指控,声称他们对 Claude AI 机器人进行了大规模的“蒸馏攻击”。该公司声称,DeepSeek、Moonshot 和 MiniMax 创建了大量账户——据报道有 24,000 个——并发起了数百万次互动——大约 1600 万次 Claude 交流——其明确目的是抓取数据来训练他们自己的人工智能模型。

在这种情况下,蒸馏攻击指的是通过重复查询目标人工智能模型并分析其响应,从而从目标人工智能模型中提取知识和能力的过程。目标是创建一个更小、更高效的“学生”模型,该模型可以模仿更大、更复杂的“教师”模型(在本例中为 Anthropic 的 Claude)的性能。虽然模型蒸馏具有合法的应用,但 Anthropic 声称的规模引发了人们对知识产权盗窃和不正当竞争行为的担忧。

专家观点

Anthropic 提出的指控突显了在快速发展的人工智能领域,围绕知识产权和数据安全日益紧张的关系。模型蒸馏本身并不是天生就具有恶意;它是一种通常用于压缩模型以便在资源受限的设备上部署的技术。然而,未经许可使用自动化系统从专有模型中提取数据引发了重要的伦理和法律问题。据称的活动规模表明这是一项协调一致的努力,表明有人故意试图抄近路,避免从头开始训练人工智能模型这一昂贵且耗时的过程。

从市场角度来看,这种情况突显了生成式人工智能领域日益激烈的竞争,尤其是在美国和中国的公司之间。大型训练数据集的可用性是开发具有竞争力的人工智能模型的关键因素,而数据抓取的指控可能会升级为关于贸易和技术转让的更广泛的争端。

值得关注的事项

有几个关键方面需要密切监控。首先,对 Anthropic 的主张的法律和监管反应将至关重要。政府机构会进行调查吗?Anthropic 会对被告公司采取法律行动吗?这些行动的结果可能会为保护人工智能知识产权树立重要的先例。其次,技术界将仔细审查 Anthropic 提供的证据。验证所称的数据抓取及其对 Anthropic 模型的影响将至关重要。最后,我们需要考虑对人工智能行业的更广泛影响。加强对数据抓取的防范可能会导致开发新的安全措施来保护人工智能模型,从而可能影响人工智能开发的成本和复杂性。

观察 DeepSeek、Moonshot 和 MiniMax 对 Anthropic 提出的这些非常严重的指控的回应非常重要。他们的立场和任何潜在的反驳将对这一复杂情况的整体叙述和潜在的解决方案做出重大贡献。

来源:Cointelegraph