cover of episode 【人工智能】高级红队测试该怎么做 | OpenAI同时发两篇论文阐述人和事 | AI自动化安全测试 | 如何聘请红队人员 | 多样化攻击目标 | 基于规则的奖励RBRs | 性能评估 | 安全对齐

【人工智能】高级红队测试该怎么做 | OpenAI同时发两篇论文阐述人和事 | AI自动化安全测试 | 如何聘请红队人员 | 多样化攻击目标 | 基于规则的奖励RBRs | 性能评估 | 安全对齐

2024/11/24
logo of podcast 最佳拍档

最佳拍档

Frequently requested episodes will be transcribed first

Shownotes Transcript

22日凌晨,OpenAI分享了两篇关于前沿模型安全测试方法的论文,一篇是关于聘请外部红队人员的白皮书,另一篇则是通过AI进行多样化、多步骤强化学习的自动化安全测试论文。

https://openai.com/index/advancing-red-teaming-with-people-and-ai/

成为此频道的会员,即可享受提前一天,观看频道最新发布视频的福利: https://www.youtube.com/channel/UCGWYKICLOE8Wxy7q3eYXmPA/join