OpenAI安全研究员加入Anthropic对齐团队

4 天前·来源:The Decoder
OpenAIAnthropicAI安全对齐研究人才流动

OpenAI高级安全研究员Andrea Vallone已加入Anthropic,将在对齐团队工作。她在OpenAI任职三年,曾领导模型政策研究并参与GPT-4等项目。Vallone将向同样来自OpenAI的Jan Leike汇报工作。

OpenAI高级安全研究员Andrea Vallone已加入Anthropic,她将在专注于AI模型风险的对齐团队工作。Vallone在OpenAI任职三年,期间创立了“模型政策”研究团队,并参与了GPT-4、GPT-5和公司推理模型等主要项目。过去一年,她领导了OpenAI关于AI模型如何应对用户情感依赖或心理健康问题迹象的研究。在Anthropic,Vallone将向Jan Leike汇报。Leike曾是OpenAI安全研究负责人,于2024年5月离职加入Anthropic。

背景阅读

AI对齐是人工智能安全领域的关键研究方向,旨在确保AI系统的目标与人类价值观和意图保持一致,防止潜在风险。近年来,随着大型语言模型如GPT系列和Claude的快速发展,对齐问题日益受到关注,涉及模型偏见、安全性和伦理挑战。OpenAI和Anthropic作为领先的AI公司,都在积极投入对齐研究,以应对AI技术带来的复杂社会影响。Vallone的加入反映了AI行业人才流动和对安全优先的重视,特别是在用户心理健康等新兴风险领域。

评论 (0)

登录后参与评论

加载评论中...