AI公司卷入美国军事行动:从抵制到合作的转变

6 天前·来源:Wired
AI军事应用政策转变地缘政治AI伦理国防合作

2024年初,Anthropic、Google、Meta和OpenAI曾一致反对其AI工具用于军事目的。但一年内,这些公司纷纷改变立场,允许或合作军事应用。这一转变与AI模型的高昂开发成本及地缘政治竞争加剧有关。

2024年初,Anthropic、Google、Meta和OpenAI曾联合反对其AI工具用于军事目的。然而,在接下来的12个月里,情况发生了变化。2024年1月,OpenAI悄悄撤销了禁止AI用于“军事和战争”目的的禁令,随后被报道正与五角大楼合作多个项目。同年11月,在美国前总统唐纳德·特朗普重新当选的同一周,Meta宣布美国和特定盟友可以使用Llama模型进行防御用途。几天后,Anthropic宣布也将允许军方使用其模型,并与国防公司Palantir建立合作伙伴关系。年底时,OpenAI宣布与国防初创公司Anduril合作。2025年2月,Google修订了其AI原则,允许开发和使用可能伤害人的武器和技术。在短短一年内,对通用人工智能存在风险的担忧几乎消失,AI的军事使用已被正常化。

这一变化部分与构建这些模型的巨大成本有关。通用技术的研究常强调国防部门作为克服采用问题的重要性。经济学家David J. Teece在2018年写道,当存在一个大型、需求高且能产生收入的应用领域时,通用技术发展更快,例如美国国防部早期购买晶体管和微处理器。国防合同的软预算约束和长期性质,加上成功指标往往模糊,使军方成为新技术的理想客户。考虑到AI初创公司尤其需要确保大规模和耐心的投资,转向军事资金或许是不可避免的。但这并未解释转变的迅速性,也未解释所有领先的美国AI研究实验室都朝同一方向移动的事实。

过去几年,资本主义竞争格局发生了巨大变化,从新自由主义自由市场理想主导转向地缘政治关切饱和。要理解从新自由主义到地缘政治的转变,必须理解国家与其大型科技公司之间的关系。这种国家资本主义关系在早期帝国主义形成中至关重要,并在整个20世纪保持影响力。近年来,这表现为科技和政治精英之间关于数字技术在创新、增长和国家权力中角色的广泛共识。然而,近年来,精英群体之间的利益和谐已瓦解。一系列重叠过程,在2010年代获得特别动力,已拆解了这一秩序,在美国和中国留下了潜在新安排的碎片。

直到大约2010年代中期,美国被所谓的硅谷共识主导。这里政治精英和科技精英之间对技术在世界中的角色、允许技术繁荣所需条件以及所谓的美国价值观有广泛共识。

背景阅读

AI技术在军事领域的应用是一个长期争议的话题,涉及伦理、安全和监管等多方面问题。早期,许多AI公司出于对技术滥用的担忧,制定了禁止军事使用的政策。例如,OpenAI在成立初期明确禁止其AI用于军事目的,以强调负责任AI的发展。然而,随着AI模型规模的扩大和训练成本的飙升,公司面临巨大的财务压力。同时,全球地缘政治竞争加剧,特别是中美在AI领域的竞争,促使国家加大对AI军事应用的支持。国防部门因其长期合同和软预算约束,成为AI公司寻求稳定资金的重要来源。这一转变反映了AI行业从纯粹技术驱动向地缘政治和商业利益交织的复杂格局演变。历史上,类似的技术如晶体管和微处理器也曾通过国防采购获得快速发展,这表明军事需求在推动通用技术普及中扮演关键角色。

评论 (0)

登录后参与评论

加载评论中...