cover of episode EP3 | 投AI不如玩AI:当一个投资人开始搭建自己的AI产品

EP3 | 投AI不如玩AI:当一个投资人开始搭建自己的AI产品

2024/2/27
logo of podcast AI创意观察室

AI创意观察室

Frequently requested episodes will be transcribed first

Chapters

Shownotes Transcript

欢迎大家回到李小凯的AI创意观察室!

本期,我们邀请到了毕业于北大光华管理学院的Gilbert, 他在香港从事了长达9年的二级市场投资工作,对TMT (Telecommunications, Media, Technology - 电信、媒体和科技) 领域有长达6年的研究和思考。同时,他也是一款AI行业研究思维导图)的独立开发者和创始人。

兼备投资人和创业者的身份,Gilbert和我们分享了作为个人用户使用和改造大模型的实用方法,还探讨了商业与投资视角下这一轮AI的价值:

  • AI的现有盈利规模是否匹配得上对它的高投入?这一次AI浪潮为什么与之前有所不同?
  • 有什么普遍适用的AI“调教技巧”?我们如何借助大模型设计自己进入社会后保持高效成长的“练习册”?
  • 与大陆公司投资部门接触中,看到了哪些AI应用案例,又有哪些独家观察和思考?

💡 距离ChatGPT发布一年半的今日,最初一批用户逐渐退去新鲜感,而让留存下的用户对这个领域依旧充满兴奋的原因和未来愿景是什么?

📖 欢迎各位听友朋友们在评论区留下你的独特看法。

【本期要点】

## 关于自己和产品

00:46 嘉宾自我介绍

从投资的视角,为什么看好这一波AI?

03:02 投资界对AI的主流看法

05:14 对通用人工智能的看法——“边际效应”的视角

使用GPT的契机和上头过程

10:02 第一次使用ChatGPT的感受并不那么兴奋

11:47 常去的AI学习论坛

12:53 ChatPDF比起ChatGPT给了我更多灵感

“温故而知新”的产品设计理念

13:31 设计自己的AI产品的初衷

14:37 产品主要的两个功能:转写、思维导图

15:41 为什么做行业研究需要一张思维导图?

17:19 什么是所谓的“点”?是自己拟定的研究主题吗?

17:32 产品能力:举人工智能行业研究的例子

21:23 产品的底层模型能力支持

## 关于AI的学习思考

产品的框架和设计理念也源自一个涉足新领域的学习过程

23:36 在AI时代有什么和AI工具相辅相成的学习策略?

26:16 我希望做“造轮子,用轮子“的人

27:35 循环的魔力

29:52 开发过程中,发现的GPT的普遍适用的“调教技巧”

  • 30:54 思维链路
  • 32:14 私有数据整合

33:03 使用LLM过程中遇到的其他细节和解决方案:RAG

37:27 一共为OpenAI花了多少钱?

## 投资人视角的AI观察

38:34 还有看到一些什么比较有意思的项目?

43:33 和大陆不同行业的公司(投资部门的)接触过程中,观察到对AI的态度和动作

45:15 对新人的AI入局建议

48:08 你认为AI会取代人类工作吗?

【延伸资料】

Gilbert访谈中20:56提到的思维导图图解(来自嘉宾):

中间节点(核心领域,例如“社区团购”),第一层(主题-topic,例如“行业情况”),第二层(类目-category,例如“发展趋势”、“前置仓模式”),第三层(数字,例如“前置仓模式”后面的“7”)表示有7个片段的关键词与“前置仓模式”有关。

感谢Gilbert提供的思维导图示例,感兴趣的听友朋友也可以通过他的产品网站Q&A)板块继续探索: ### 【延伸阅读】

本期提到的王小川采访:《对话王小川:大模型创业核心,是想好技术如何匹配产品》,开始连接LinkStart )

🍎 小红书 @李小凯的AI创意观察室 提供了5分钟图文精选版)

LangChain

LangChain由Harrison Chase于2022年10月作为开源软件项目推出,当时他在机器学习初创公司Robust Intelligence工作。它是一个应用框架,提供了一个标准接口,用于将不同的语言模型(LLM)连接在一起,以及与其他工具和数据源的集成。2024 年 1 月 8 日,LangChain发布了它的第一个稳定版本,即 LangChain 0.1.0,这意味着在迭代一年后,LLM 应用自此拥有了一个统一的接口和框架。如何开始使用LangChain?可以从这一个页面开始)

检索增强生成(Retrieval-Augmented Generation, RAG)

RAG是一种结合了搜索检索和生成能力的自然语言处理架构。通过这个架构,模型可以从外部知识库搜索相关信息,然后利用这些信息来生成回应或完成特定的NLP任务。

Gilbert访谈中提到的思维链(30:39)和RAG技巧(34:37)可以这么理解:

  1. 思维链(Chain of Thought,CoT)是一种提升大语言模型推理能力的关键技术。本质是**把一个复杂的推理问题进行拆解,逐步解决。**例如在实际项目中,以序列的形式(例如sequential chain)问问题,第一个问题的输出也可以作为下一个问题的输入,更容易得到高质量的答案。

  2. 实用RAG技巧:

  • 使用文本相似性算法定位最可能和query有关的上下文一起返回,作为context一起输入prompt template生成prompt;
  • 使用LLM进行问题增强,对多个问题查询并集,提升召回知识的覆盖度。

拓展阅读:RAG 檢索增強生成— 讓大型語言模型更聰明的秘密武器)

【关于我们】

《AI创意观察室》致力于观察和思考人类创意和机器智能如何产生碰撞和融合,致力于邀请人工智能行业的投资者、创业者、和长期价值实践者参与对谈,和听众朋友们分享他们的一线思考。希望可以帮助听众朋友们了解、理解、应用AI,进一步提高工作生活中的效率和激发创意。

欢迎大家加入我们的社群:AI创意研习社,进群讨论,和共同迭代认知。

主播、总策划:李小凯Kuriosity

声音总监:BMR

【联系我们】

感谢大家对本期节目的收听,如果你有任何的建议反馈或嘉宾推荐,也欢迎邮件或评论告诉我们。

邮箱:[email protected]

小红书:李小凯的AI创意观察室