Home
cover of episode #37 Sam Altman GPT5. Sora. 马斯克. Ilya. AGI | From Lex #419

#37 Sam Altman GPT5. Sora. 马斯克. Ilya. AGI | From Lex #419

2024/3/21
logo of podcast 第三浪 SurgeLong

第三浪 SurgeLong

Frequently requested episodes will be transcribed first

Shownotes Transcript

👋** 来互动**

🕵️ 英文原声 & 节目频道

🎸 背景音乐

👫🏽 本期对谈人 & 发言人

  • Sam Altman: OpenAI的CEO,曾参与推出GPT-4、ChatGPT等产品,对人工智能发展有深刻见解。
  • Lex Fridman: 播客主持人,与Sam Altman进行了深入对话,探讨了人工智能的未来和相关议题。

📝 目录

  • OpenAI 董事会传奇
  • Ilya Sutskever
  • Elon Musk 诉讼
  • Sora
  • GPT-4
  • 记忆与隐私
  • Q*
  • GPT-5
  • 7万亿美元的计算
  • 谷歌和Gemini
  • 跃升至GPT-5
  • AGI
  • 外星人

💁🏻 本期(不完全)提及人物 & 事物

  • Brett: 未详细说明,可能是OpenAI董事会成员或相关人物。
  • Larry Summers: 前美国财政部长,经济学家,被提及为OpenAI新董事会成员之一。
  • Mira Murati: OpenAI的成员,Sam Altman对她的评价很高。
  • Ilya Sutskever: OpenAI的联合创始人之一,对AGI及其安全问题有深入思考。
  • Elon Musk: 特斯拉和SpaceX的CEO,曾是OpenAI的合作者,与Sam Altman有复杂的关系。

✂️

  • 人工通用智能(AGI): 指的是能够执行任何智能生物能够执行的智能行为的机器。
  • GPT-4和ChatGPT: OpenAI开发的先进语言模型,能够进行自然语言处理和生成。
  • 核聚变: 一种能源产生方式,通过原子核的融合释放能量,被认为是未来清洁能源的潜在来源。
  • Sora: OpenAI开发的产品,能够生成模拟世界的三维图像。
  • 费米悖论: 一个关于地外文明存在的科学问题,即如果宇宙中存在大量文明,为何我们还没有发现他们。
  • RLHF: 技术利用人类的偏好作为奖励信号来微调模型,这使得 OpenAI 能够解决复杂且主观,并且无法被简单的自动度量指标所捕获的安全性和偏好对齐问题。 在InstructGPT的训练中,OpenAI 首先在提交给 API 的提示上收集的人工编写的演示数据集,然后用它来训练监督学习的基线。 接下来,在更大的 API 提示集上收集两个模型输出之间的人工标记的比较数据集。然后,在此数据集上训练奖励模型(RM,Reward Model),以预测 labelers 更偏爱哪一种输出。最后,使用 RM 作为奖励函数,并通过 PPO 算法微调 GPT-3 策略来最大化这个奖励。