Home
cover of episode EP75 从总结到搜索:LLM 应用实践分享

EP75 从总结到搜索:LLM 应用实践分享

2024/9/2
logo of podcast 硬地骇客

硬地骇客

Frequently requested episodes will be transcribed first

Shownotes Transcript

本期节目我们将从 Podwise 实际使用 LLM 的经验出发,分享不同模型的优缺点,探讨成本下降背后的原因,以及如何混合使用大模型来提高性价比。同时,我们还会聊聊总结类 AI 产品的未来方向,以及 Podwise 如何利用 LLM 开发新的 AI 功能,比如智能推荐、AI 搜索等等。欢迎收听。

更多内容信息和时间线参考下文的硬地笔记,欢迎收听本期节目。

另外,现在加入「硬地骇客」会员服务,即可在会员专属的微信群与其他朋友一起畅所欲言,成为会员也是对我们持续更新最大的鼓励! ## 本期赞助

Podwise.ai - Podcast knowledge at 10x speed 🚀) ## 硬地笔记

00:00:04 Podwise 的 LLM 应用实践:总结、搜索和创作者工作流

00:09:01 LLM 进化之路:从 GPT-3.5 到 GPT-4.0 和 Gemini 1.5

00:17:44 大模型成本的显著下降:20 倍的成本降低

00:23:31 混合使用大模型:提升性价比的关键

00:26:19 GPT-4o mini vs GPT-4.0:成本与效果的权衡

00:30:07 总结类 AI 产品的未来:场景和数据至关重要

00:33:36 Podwise 的 AI 创新:从总结到知识发现

00:34:58 Podwise 的 RAG 工作流:从音频到搜索

00:38:46 构建私有数据搜索引擎:最佳实践分享

00:43:33 多语言 Embedding 模型的选择:OpenAI 和 BGE M3

00:46:02 Re-rank 模型的选择:BGE M3 和 jina

00:48:08 多语言 Prompt 的最佳实践:Prompt Perfect 和 GitHub Copilot

00:50:54 Gemini 1.5 Flash 的免费额度:个人小项目的利器

00:53:51 独立开发者选择 LLM 的建议:免费、稳定、成本优先

硬地笔记

提到的词汇:

  • qdrant
  • meilisearch
  • dense embedding
  • sparse embedding
  • splade
  • bge-m3
  • bce
  • jina
  • promptperfect
  • ColBERT
  • langchain
  • llamaindex

欢迎关注我们