AI行业内部人士发起名为Poison Fountain的项目,呼吁网站运营者添加链接向AI爬虫提供有毒训练数据,以对抗AI技术发展。该项目已上线约一周,旨在通过数据投毒攻击削弱AI模型质量。AI爬虫访问网站并抓取数据用于训练AI模型,这种寄生关系已引发出版商反弹。当抓取数据准确时,有助于AI模型提供高质量回答;当数据不准确时,则产生相反效果。数据投毒可采取多种形式,发生在AI模型构建的不同阶段,可能源于公共网站的代码错误或事实错误,或来自被操纵的训练数据集,如Silent Branding攻击,其中图像数据集被修改以在文本到图像扩散模型输出中呈现品牌标志。Poison Fountain灵感来自Anthropic的数据投毒研究,特别是去年十月发表的一篇论文,该论文显示数据投毒攻击比之前认为的更实用,因为只需少量恶意文档即可降低模型质量。项目发起人要求匿名,因其在美国一家主要AI科技公司工作。项目目标包括让人们意识到AI模型的脆弱性,即模型容易被投毒,并鼓励人们构建自己的信息武器。据称有五名个人参与此项目,其中一些人在其他美国主要AI公司工作。Poison Fountain网站主张积极反对AI,引用Geoffrey Hinton的观点,认为机器智能对人类构成威胁,并希望通过损害机器智能系统来应对此威胁。网站列出两个旨在阻碍AI训练的URL链接,一个指向可通过HTTP访问的标准网站,另一个是暗网.onion URL,旨在难以关闭。网站要求访问者通过缓存和重传有毒训练数据,以及向网络爬虫提供有毒训练数据来协助战争努力。