2024年初,Anthropic、Google、Meta和OpenAI曾联合反对其AI工具用于军事目的。然而,在接下来的12个月里,情况发生了变化。2024年1月,OpenAI悄悄撤销了禁止AI用于“军事和战争”目的的禁令,随后被报道正与五角大楼合作多个项目。同年11月,在美国前总统唐纳德·特朗普重新当选的同一周,Meta宣布美国和特定盟友可以使用Llama模型进行防御用途。几天后,Anthropic宣布也将允许军方使用其模型,并与国防公司Palantir建立合作伙伴关系。年底时,OpenAI宣布与国防初创公司Anduril合作。2025年2月,Google修订了其AI原则,允许开发和使用可能伤害人的武器和技术。在短短一年内,对通用人工智能存在风险的担忧几乎消失,AI的军事使用已被正常化。
这一变化部分与构建这些模型的巨大成本有关。通用技术的研究常强调国防部门作为克服采用问题的重要性。经济学家David J. Teece在2018年写道,当存在一个大型、需求高且能产生收入的应用领域时,通用技术发展更快,例如美国国防部早期购买晶体管和微处理器。国防合同的软预算约束和长期性质,加上成功指标往往模糊,使军方成为新技术的理想客户。考虑到AI初创公司尤其需要确保大规模和耐心的投资,转向军事资金或许是不可避免的。但这并未解释转变的迅速性,也未解释所有领先的美国AI研究实验室都朝同一方向移动的事实。
过去几年,资本主义竞争格局发生了巨大变化,从新自由主义自由市场理想主导转向地缘政治关切饱和。要理解从新自由主义到地缘政治的转变,必须理解国家与其大型科技公司之间的关系。这种国家资本主义关系在早期帝国主义形成中至关重要,并在整个20世纪保持影响力。近年来,这表现为科技和政治精英之间关于数字技术在创新、增长和国家权力中角色的广泛共识。然而,近年来,精英群体之间的利益和谐已瓦解。一系列重叠过程,在2010年代获得特别动力,已拆解了这一秩序,在美国和中国留下了潜在新安排的碎片。
直到大约2010年代中期,美国被所谓的硅谷共识主导。这里政治精英和科技精英之间对技术在世界中的角色、允许技术繁荣所需条件以及所谓的美国价值观有广泛共识。