22日凌晨,OpenAI分享了两篇关于前沿模型安全测试方法的论文,一篇是关于聘请外部红队人员的白皮书,另一篇则是通过AI进行多样化、多步骤强化学习的自动化安全测试论文。
https://openai.com/index/advancing-red-teaming-with-people-and-ai/
成为此频道的会员,即可享受提前一天,观看频道最新发布视频的福利: https://www.youtube.com/channel/UCGWYKICLOE8Wxy7q3eYXmPA/join