OpenAI高级安全研究员Andrea Vallone已加入Anthropic,她将在专注于AI模型风险的对齐团队工作。Vallone在OpenAI任职三年,期间创立了“模型政策”研究团队,并参与了GPT-4、GPT-5和公司推理模型等主要项目。过去一年,她领导了OpenAI关于AI模型如何应对用户情感依赖或心理健康问题迹象的研究。在Anthropic,Vallone将向Jan Leike汇报。Leike曾是OpenAI安全研究负责人,于2024年5月离职加入Anthropic。
OpenAI高级安全研究员Andrea Vallone已加入Anthropic,将在对齐团队工作。她在OpenAI任职三年,曾领导模型政策研究并参与GPT-4等项目。Vallone将向同样来自OpenAI的Jan Leike汇报工作。
OpenAI高级安全研究员Andrea Vallone已加入Anthropic,她将在专注于AI模型风险的对齐团队工作。Vallone在OpenAI任职三年,期间创立了“模型政策”研究团队,并参与了GPT-4、GPT-5和公司推理模型等主要项目。过去一年,她领导了OpenAI关于AI模型如何应对用户情感依赖或心理健康问题迹象的研究。在Anthropic,Vallone将向Jan Leike汇报。Leike曾是OpenAI安全研究负责人,于2024年5月离职加入Anthropic。
AI对齐是人工智能安全领域的关键研究方向,旨在确保AI系统的目标与人类价值观和意图保持一致,防止潜在风险。近年来,随着大型语言模型如GPT系列和Claude的快速发展,对齐问题日益受到关注,涉及模型偏见、安全性和伦理挑战。OpenAI和Anthropic作为领先的AI公司,都在积极投入对齐研究,以应对AI技术带来的复杂社会影响。Vallone的加入反映了AI行业人才流动和对安全优先的重视,特别是在用户心理健康等新兴风险领域。
Anthropic 新推出的 Cowork 生产力 AI 工具存在文件泄露漏洞,源于去年 10 月已报告的 Claude Code 缺陷。攻击者可通过提示注入诱骗 Cowork 将敏感文件传输至其账户,无需额外用户批准。Anthropic 承认风险但未修复,建议用户避免连接敏感文档并监控可疑操作。
OpenAI确认清华姚班天才、UC伯克利助理教授陈立杰已加入公司。他将负责数学推理方向的研究工作。陈立杰在计算复杂性理论领域有深厚背景,其研究被OpenAI论文引用。
Anthropic 发布了 Claude Cowork AI 代理的研究预览版,该工具专注于文件管理和计算机界面操作。Claude Cowork 能够组织文件、转换文件类型、生成报告并控制浏览器执行任务。目前,该工具仅面向 Anthropic 每月 100 美元订阅计划的用户开放,并仅限于 macOS 平台。
登录后参与评论