cover of episode EP60 对话 Minimax 的 AI PM 橘子:聊聊 AI 行业的最新认知

EP60 对话 Minimax 的 AI PM 橘子:聊聊 AI 行业的最新认知

2024/5/20
logo of podcast 硬地骇客

硬地骇客

AI Deep Dive AI Chapters Transcript
People
s
settle
橘子
Topics
橘子老师结合自身10多年产品经理经验,以及在Minimax负责AI产品的工作经历,深入分析了当前AI行业,特别是大模型领域的现状、机遇和挑战。她认为,当前国内大模型的能力和热度并不匹配,很多模型的热度主要来自于强大的渠道和市场投放,而非模型本身的强大能力。她指出了中文大模型训练数据质量低下的问题,优质数据主要集中在私域APP内,难以获取,这限制了模型能力的提升。她还分析了智能助手和AI搜索两种主要发展方向,认为智能助手是过渡形态,AI搜索是解决模型幻觉问题的更优选择,最终目标都是满足用户所有需求。在商业化方面,她认为开源和闭源是不同的商业化策略,并非技术优劣的体现。她还分析了当前大模型能力提升的瓶颈,认为单纯增加算力意义不大,需要算力、数据和算法三方面共同提升。最后,她对国内大模型出海提出了建议,认为应用出海比模型出海更容易,小工具细分市场存在大量机会。 settle,一笑,乖乖三位主持人与橘子老师就大模型能力与热度匹配性、中文大模型训练数据质量问题、AI搜索与智能助手的差异与发展方向、开源模型与闭源模型的优劣、国内大模型出海的优势和挑战等问题进行了深入探讨。他们认为,当前大模型的能力与热度并不完全匹配,中文大模型训练数据质量有待提高,AI搜索在解决模型幻觉方面具有优势,开源和闭源各有优劣,国内大模型出海应更关注应用层面的机会。

Deep Dive

Chapters

Shownotes Transcript

大家好,欢迎收听英尼海克。

我是 settle, 我是一笑,我是乖乖。

英尼骇客出书了,我们发布的第一本小书英迪骇客两个月 12000 美金 AR 实践之路在 GitHub 以开源的形式发布了。

这本小书是关于 Podwise 产品历程的忠实记录,内容包含灵感、构建、发布、增长、复盘 5 个章节。

Podwise 今天的成绩远称不上成功,可能勉强算是找到了 PMF。

所以这不是一份权威指南,我们更欢迎你用批判的眼神来阅读。

当然,如果你觉得一个人读得不够过瘾,欢迎加入应泰克官方知识星球,与专家们一起讨论。

现在加入,除了能在未来解锁小说的隐藏内容,同时还会为你的产品保留一个印迪骇客品牌的媒体广告机会。

数量有限,先到先得。

Podwise 的故事才刚刚开始,我们也将在星球持续分享我们的认知。

成功可能无法复制,但失败一定可以借鉴。

现在就点击 shownotes 中的星球链接加入吧!

嗯,最近几天最热门的话题就是 Openai 的 GPT for o 了。

就多模态的能力,还有它极低延迟的语音交互,然后也是给我们的应用打开了很多的响应空间。

我们今天特别高兴啊,我们请到了 minimix 生产力产品的负责人 orange 老师来跟大家深入地聊聊他关于 AI 行业的认知啊!

欢迎 orange 老师啊!

orange 老师能不能先给大家介绍一下自己啊?

好呀,行啊,我的橘子,然后我的呃, Twitter 叫 orange 点 AI base 在北京,我是一个做了十多年的呃产品经理,我个人是一个对业界有信仰的人。

然后我的 MBTI 是 NTP 啊。

最近的一年半在呃 Mimax 当产品经理呃,负责两款产品,一款叫万卷,一款叫海螺。

我其实比较擅长做的事情是这种信息的分发相关的东西,以及说帮助用户去满足用户的这种呃回答问题或者渗提升用户渗染率,效率这样的工具。

之前呢,在 boss 直聘做过两年多呃,当时在做 boss 直聘的一个呃游乐的职场社区。

嗯,我现在的话是呃在 4 月 的时候从 Meemax 呃出来,然后诶,再看新的机会,哈哈哈。

对,因为因为毕竟 org 老师在大模型的这个行当里边,从 chagb 开始,然后它就一直在这里边了。

然后我就想问汪仁哲老师一个秘心啊,国内的这些大模型的这些梯队里边,不管是开源的,闭源的,大厂的,小厂的对吧,拿融资的,没拿融资的,如果让你分一个一二三线的话,就是你觉得要怎么排一下这个?

这个问题感觉会得罪很多人,哈哈哈,这个其实嗯,但是不一样赛道,就比如说碧园开园,大家玩的逻辑也不一样,嗯,我可以这样说,就是说可以说一下各家公司的一些我的直观印象,对,嗯,设计排名,对啊,像比如说智普,智普的话,嗯,它的模型是在技术上还蛮不错的,然后它的嗯,整个产品路线其实是呃在对标 Openi 的,包括像一些代码呀,像一些这种呃 agent 相关的东西,它都有做,做的还可以。

相对来说就是在 1 月 的时候测试他们的那个呃代码解释器的时候,会发现它跟那个 GBD4 的能力已经很接近了。

嗯。

哦,这个是应该是国内第一个做到的。

嗯,其他家的话就有各有各特点啊,像 Kimi 就是成本相关的,场景优化特别好啊。

他们其实产品和算法有一个共同的,这个呃一个,相当于这是一个共同一起做出来一个实践。

呃产品算法结合比较紧密,产品定义了一些模型效果,导致他们在呃长文本相关的任务上就呃效果是对用户来说那端端的端端的端体验是更好一些的。

对,还有一些像百川啊,他们就是主打医疗大模型,好像在综合综合能力上嗯并没有说呃特别的这种呃给人深刻印象吧对嗯嗯啊建业星辰和呃灵异万物他们可能是重点在投入在多模态这这方面啊对太多了都没太应用呃总体水平的话,其实大家的水平都是比较接近呃一个 GBD4 的水平,但还没有超越呃在此基础上,每家会有自己的一些呃小的 feature 对像成本多么态度可以算是一小的 feature 嗯千万的话就比较特殊,就是在开源里面做得相当可以。

在海外也识别有口碑嗯 OK 我我其实就想问一个问题,从你个人的角度上面来讲,就现阶段所有大模型的能力跟他们的热度是匹配的吗?

比如说 Kimi 现在很热,但是它的整个模型能力上面,你刚才讲说它,其实它有它的突出特点,比如说它的长文本能力比较突出嘛,但是从整个模型的能力层面上面,就是他们的热度跟能力是可以匹配上的吗?

啊,现在我觉得能能力和热度其实没有很匹配吧?

OK, 举举个例子,就是说现在国内最火的其实是呃,豆包,对,然后豆豆包的模型能力,大家并不会觉得说它多多好,但是呢,它豆包渠道是最强的,抖音禁止了其他的这种 AI 工具投放,只投豆包,然后甚至把豆包放在了它的那个呃私信那个 Tab, 所以就是它的这个渗透率很高。

然后嗯但头发的产品做得也不错,因为它就是一开始有自己的特色,就是说嗯一个特色是它的头包人设是非常亲人的,嗯,它是嗯,包括形象包括人设,就是想做一个你的这种身边的小呃伙伴或者朋友。

然后是豆包很早有做了那呃云电话的这个功能,这个电话的话比 open i 那个电话要做得更亲人一些,里面的呃音色嗯就是很自然,然后再加上他这个人设就比较啊亲和啊,这个人设还会讲笑话,还会自己笑,嗯就会给人留下一个很不错的印象嗯但他的呃核心的这个竞争力还是来自于说他渠道太强了嗯所以其实现在你说他的热度。

其实本身还是跟他的渠道,包括他的投放等等这些东西,包括 Kimi 其实最近这个阶段他投放其实也比较多嘛,对吧?

啊对 Kimi 的话,嗯其实他也在早期的时候的口碑是最好,因为他已经开始做长本这个这个场景,这个场景呢就嗯特别适合这种在呃电脑上使用 AI 的人,就是一个非常生产力的场景。

呃这个人群的话,比如说他们用来干嘛?

用来读财报或者读论文,或者读公众号这样的内容是每天都会有新的,它当有新内容的时候,它自然地会想到 Kimi, 所以 Kimi 在早期的时候,它的留存是非常好的,它的 30 流就是应该是呃所有这种同类产品里最最好的,而且是断档的好。

那这些产生一个结果就是导致他的整个口碑和口碑传播非常好,他其实早期的增长也并没有花很多钱,他是看到这个口碑非常好,然后数据非常好这个基础上才去做这种啊比较大投放的,或者说等他们移动端出来之后才开始做很大投放的。

嗯,投放之前是就声量和口碑其实匹配的。

呃,因为我们刚才在聊这个中文大模型嘛,其实我就一直有一个疑问啊,包括 open AI 其实一直也在说它其实 95% 以上其实都是英文语料嘛,那中文语料其实很少嘛,然后当前的这个中文语料上面,其实我觉得还是有挺多难点的,就我自己啊觉得说像包括中文本身,它上下文相关性比较强嘛。

所以说其实你去理解内容的时候就没有那么容易理解对,还有一些就是现在其实中文尤其是国内有一些特殊的原因嘛,就其实各种词语的多义表达非常多。

呃我我就想问一下,就是业界有没有一些比较好的一些提升中文大模型能力的这种方式,就是包括它的语料对嗯嗯啊。

我觉得刚刚说那些情况,嗯其实都不是呃大问题就是语义这件事情本来就是 AI 擅长的事情,它比较擅长泛化。

它真的问题是说,呃大模型的训练数据一般是来自于网络爬取,嗯,对,但是中文互联网的这个质量是特别低的。

嗯,中国是世界上最早进入这个移动互联网时代的,这个就是或者最全面的进入移动互联网时代的一个国家。

然后呃,中国的优质内容都是集中集中在各种呃那个 APP 内部说知乎, OK, 小红书,公众号,还有呃,抖音,对,它的内容在这,然后不在这种公网上,不在公域上。

所以呢,这样训出来的模型呢,它的语料就是很少的。

对,其实欧派它那个之所以就是 95% 都是英文,一个原因也是因为英文的优质数据真的是最多的。

英文包括像 Google 学术呀,还有各种呃, ready 啊什么,都是可以爬的。

对。

而且 open 应该还买了很多数据吧,像包括 Reddit, 它应该也是付费去购买的对吗?

可能是因为它是那个 sum, 是 Redis 的股东嘛,所以这个都好谈的。

对,包括说嗯,我们都知道那个公众号的内容质量还蛮高的,但是公众号嗯的这种爬取还是还挺困难的,但 open i 的有有这个就是呃公众号的这种最多的量,他们就就是很重视这块,比中国的这种产要多了解诶。

你刚才讲说其实像包括知乎啊干嘛的,其实知乎它本身应该是搜索引擎是开放的嘛,它应该可以爬取?

还是说其实知乎有很多搜索引擎不可爬取的内容,它自己可以去训练啊?

干嘛他之前是开放的,他是做 SEO 去给自己做量嘛,然后到后面就越来越不开放,那现在的话就进入一个嗯非常封闭的状态,就现在个人使用的话,他也会弹出一个验证,要点三个小图标才能看,就是为了反爬嘛?

嗯,但是有点晚了吧,现在大家都已好像数知乎的数据已经不值钱了的样子。

对对对。

因为主要知乎的数据到最近这一两年,其实它质数据质量也越来越差了嘛,就没有之前的那个数据质量那么好了。

对对,它知乎现在好多人已经用 AI 来写内容,所以就是他们用自己信自己,对,就其实现在质量比较高的,像呃,小红书还是蛮高的,小红书的话,嗯,百度都呃花了一些钱去啊购买它的这个数据。

对诶,那那我就有一个问题啊,就是你看现在因为中文互联网里面它的那个资料的那个问题嘛,比如说你说小红书质量比较高,公众号质量比较高,那是不是会导致说未来其实国内的这些大模型,包括小红书,他们可能自己会去训,那包括抖音,他肯定自己在已经在训了嘛对吧,然后还有包括腾讯他们也在训,就是因为语料上面的优势会导致他们的模型可能未来会能力比较强。

会有会有这方面的影响吗?

嗯对,其实会在某些领域上就是会比较强。

字节的话它的优势其实是在视频字节的,视频的呃数据储备应该是最多的,他就应该是不光有呃他自己的那个 TikTok, 也也有 YouTube 的一些爬取数据呃综合看来应该他是最多的。

嗯,所以大概率他的呃视频模型如果没什么问题的话,应该效果还是可以的。

然后小红书的话就是这些生活服务数据,嗯,这种数据的话有个特点是说它是每天都会更新的,而且很容易过时,比如说有一个啊有一个展,新的展览出来,那你基本上两个月之后就没有没有价值了,所以它嗯,它除了这个数据价值之外,还有它设计本身的这种实时性,所以说小红书这边的呃,小红书 APP 里面本来就有百分之呃 50 的渗透是那个搜索功能,所以它嗯,它其实是一个非常好的一个嗯,就是搜东西的地方,好多东西像比如说呃去办签证呀,或者是啊出国,出国有些什么问题啊,去哪个景点啊,都可以去搜小红书,对,其实你你在百度反而找不到的,或者大模型,嗯,很难给这个信息,嗯。

从现在就是在我现在的这个体感上面啊,就是国内的这些大模型公司好像都在有两个发力方向对吧,就一个是智能助手对吧,然后另外一个就是类似于啊, RAG 搜索,就是比如说 AI 搜索对吧,就这两个方向。

现在啊智能助手比较出圈的,就像 KME 嘛对吧,它有长文本啊等等这些的。

然后 RG 搜索的话,现在比较出圈就是 Meta 嘛, Meta 现在反正投放也比较多对嗯,然后我不知道就是呃,对于大模型公司来讲,就为什么大家会选这两个方向作为发力点,对,因为其实做智能助手我倒觉得说其实是它的一个能力展示嘛,对吗?

就是为什么现在有很多公司可能在做 AI 搜索等等之类的。

对啊嗯啊,智能助手的话,嗯,第一个原因就是因为那个 OPI 做了 open 是领头羊嘛, open i 对这个算法的认知是最最最超前的,所以你在你不知道做什么的时候,跟着第一名做肯定是对的。

对,然后在做的时候才会发现一些呃,非共识的东西,然后才会去在非共识的地方去发力,最终形成一个差异化的竞争这样的一个过程。

k 然后或者说基本上去年,包括所有 talk 的东西,嗯,插件的东西,它们都是很像一个,这个就是插 GPT 的这个镜像本,对,包括国内的国外都是这样。

嗯,就是因为大家还没有对这件事的事情的理解足够深,才是才是这样,对,因为这个东西就是一个中间过渡的一个形态。

OK。

你当前觉得说智能助手是一个中间过渡形态,那你觉得它的终局形态是什么呢?

嗯,我们以这种模型能力为核心的这种助手就是一个中间形态,对,就是我们给它啊包装一下模型能力,然后套壳,然后输出结果也是以模型为主,嗯,对,这就是一个一个过去式。

这种产品的话,一个很明显问题就是模型的幻觉,这个幻觉是嗯,呃,靠训练很难解决的。

然后像那个嗯,那个 GBT4, 一年前发的,到现在是 GBT4O 对吧,嗯,它依然是有幻觉的,而且对,嗯,对。

所以说单靠模型训练,把幻觉去掉是非常非常不现实的,所以才会有了那个二级这件事情,对,不管 rat 的是用户的文件,还是说企业数据库,还是说网络网页,也就是说 AI 搜索,它本质上都是为了解解决这个幻觉的问题。

所以说从你的角度, AI 搜索的这个产品形态其实是现在智能助手的下一个形态嘛。

嗯,我觉在这个阶段来说, AI 搜索嗯做好的话,其实是啊,整体的价值会比一个纯模型的这种助力要好的。

对, OK, 然后嗯另外就是 AI 搜索的本质是说对这个用户的 query 满足得很好,那嗯而搜索这个场景呢,以这种呃用户的寻址和呃寻找信息为主啊。

但是除了用户的嗯嗯寻址和寻找信息之外,还有一些更广泛的需求,比如说去去想购物,想去点外卖,它这个东西呢,其实是搜了一个呃物品或者一个服务,它其实是一个对比单纯的信息要更丰富的一个需求。

所以最终它们的终局是说满足用户的所有的这种 query, 满足用户的所有的需求所以说它是一个蛮本质的事情一切一切都是以这个大的路径是这样的然后只是爱搜索是目前看来的一个相对呃合适的一步 OK。

了解嗯那我就顺道再问一下嗯当前其实有很多 AI 的搜索工具嘛,比如说你像 Meta 呀,360 搜索他们最近都在做然后从我的角度来看,他们好像是搜索本身占的比重会比较大, AI 的能力本身占的比重好像没有那么大但是我自己我想问的就是 AI 搜索在在终局层面上面你觉得就是它的核心能力到底是 AI 还是搜索啊啊这个分两两块说吧。

一个是现在的样子,现在的话搜索这件事情,嗯就不太需要模型的很强能力,它是一个偏总结性的任务,大概就是一个 10 币左右的模型就能做得很好,对嗯然后呢,现在现在这个阶段想提升结做结果的嗯质量,就是去把数据做好啊,好数据就出好结果,然后这个数据源又是呃 Web 网页那那它想优化的呃一个店,一个是说提升这个数据源的质量,一个是通过 AI 有些手段,比如说啊这个生成 query 的关键词,然后去呃重新排序,以及去生成结果的时候呃这个模型的呃升级通过这些手段还是可以提升的嗯嗯对,但核心还是数据源。

然后但是如果接着往下走,在一个偏中局的视角来考虑的话,它对模型能力要求也很高,因为模型的话刚说到幻觉问题,它随着它这个模型越来越大,训练越来越好,幻觉就会还是会降低的,然后它的知识呃还是会越来越多的啊。

然后呢就是我们还说除了做这种纯粹的网上信息之外,还会有一些服务,你接服务的话,其实也是需要去做更多的这种 AI 的这种去调用服务啊这样的一些智能的处理能力,嗯,对,这个的话也是需要嗯 AI 去进一步提升的。

对,那你讲到这个,其实你看现在有 AI 搜索嘛,对吧?

那 AI 搜索的话,它其实你刚才讲它有数据,它有排序,那假如说这个 AI 搜索本身,它底层的这个模型,它的上下文可能更大一些。

比如说就像现在啊, Kimi 他讲的对吧?

他有 200 万上下文,对吗?

就像 gemline Pro, 他现在是 100 万上下文,对吗?

那类似于这样多的上下文,会不会导致他的结果会更好一些?

嗯,我个人感觉是会的。

嗯,就是嗯。

比如说我们以那个 Meta 为例,嗯, Meta 其实大概是用了几十个网页的结果来用 RIG 来嗯产生这个回答的。

但是这样的有一个问题是说,我们当搜搜一个人的名字,问他这个人的生平的时候,如果这个名字是个通用的名字,比如叫小明,对,网上有 1000 个小蜜,塔就会把这一千个小蜜都东西都拿过来,然后嗯,做一个总结,就非常混乱,对吧?

对,嗯,然后就算我们指定了说英迪海克的小米,嗯,那他按理说应该是去找只有你的信息,呃,但是他其实还是会把别的信息都换混在一起,因为他是一个 rig 嘛,他其实没有没有真正理解这些语料,所以他结果就是一个混乱的结果。

小明就做过各种行业各各种事情。

对对对,但如果是长本的话,它是真的是知道说啊这个文本这段的这个含义的,它能够区分说这段是英迪哈克的小名,而另一段是一个腾讯的小名,它能够分开的。

呃。

比如说像 Gemini Pro 也一直在讲说 Gemini Pro 它的召回率很高嘛,其实以前有长上下文,就包括 cloud 最先有长上下文,其实它召回率很低嘛,召率其实并不是很高,那 Gemini 1.5 的话,它其实它现在召回率提升的很高,就大概 99% 点几。

然后现在国内就 Kimi 也在做嘛,但是 Kimi 的这个 200 万上下文就反正也吹了挺久了,就好像一直也没落地。

就是我不知道你现在有没有用上,哈哈。

啊我我我刚用上对,但他们的问题是服务器太差了。

我嗯,我试试,试图让他翻一本英文的书,然后就翻译到第三段的时候服务器就挂掉了。

那他们卡片那够吧,然后阿里说给他们建集群也没有建成。

你看我现在要 200 万上下文,它跟我们原本的比如说 4K 上下文, 32K 上下文,那我 200 万上下文是不是它对显存的需求会大很多很多?

我理解是的,长文本是所有这些任务里,嗯,性价比最低的, OK, 对,就最后最大的对。

所以说如果他真的比如说 Kimi, 他真的是一个 200 万上下文的一个模型能力,他上下文就是有那么长,其实对他来讲,他把这个能力开放给公众,或者说他放在他的 Kimi 的官方的那个智能助手上面,其实对他来讲是非常不划算的啊。

对对对,因为这个生意就是本来你在 8K 的时候你都很难商业化,打正你 k 到 200 k 就只这是更难了。

OK, 了解,对,我其实就想到前面几天就是李厂长嘛,李厂长说那个开源跟闭源谁领先的问题,然后他刚说完嘛,刚说完然后拉马 3 就砸到脸上了对吧,然后嗯,我其实也在之前也有用过很多的开源模型啊,就包括国内的趣闻也好,然后百川也好,对,包括他们的一二,包括那个智普,对。

然后我其实一直有一个疑问或者有一个困惑,我自己在使用的过程里边,我觉得开源模型的指令追随就都不太好,比 Openai 他们好像就差很多。

其实李厂长讲闭源比开源有优势,其实我是能想明白一点的,就是其实闭源它是能收集用户数据的,但是开源其实它是很难收集用户数据的,就是我其我,其实这一点我一直没想明白,开源的数据它怎么样能够没有用户反馈的情况下,能够把指令追随这件事做得更好啊啊!

这件事情就还好,因为就是你知道中国有多少 talk 栈吗?

所有 talk 栈他们还提供 APF, 所有这些数据他们在卖,卖完那个 c 端之后会再卖一遍 b 端。

哦,对。

是所以每家公司都有所有的 doc 这样的数据。

呃,然后就只能遵训,就是如果做好的话,还是就是可以这样做?

对。

OK, 了解,这个我倒不知道。

嗯。

对对然后 b 源的话,其实一个模型的本质就是三块嘛,一个是算力,一个是呃,人才,或者说我们本来要算法,一个是数,一个数据啊。

算力的话,其实像呃 Meta 的算力其实比中国每个厂商都高呀,所以对它它肯定是没问题的。

然后人才也是, Meta 人才还可以的。

然后数据的话,美塔数据,嗯,就是英文数据还是不错的,但中文确实不行。

对,然后中文的话,嗯,跟这个国内的嗯 BN 模型比还是差一些的啊,但如果说你要在它基础上去加训的话,其实还是可以的。

对, OK, 就是必须得加预训练,并不是微调微调,是微调是不行的。

嗯嗯。

你对于李厂长讲的开源跟闭源谁优势的这个问题,我不知道你作为一线的产品人,就是你,你是怎么看的?

对啊,我就是从刚刚说那三点去分析就好了呀。

那实际上看下来说那个呃,算力并没有优势,就算力,闭源比开源并没有优势呃但是 open i 是有绝对优势的, open i 和 Google 有绝对优势。

嗯,那就说它们俩之外的吧呃,显卡上没有优势,然后人才上也没有优势啊,数据上有一点优势,有有语言优势,对,以及这个低保户的优势了解。

其实开源跟闭源上面,最终还是靠这 3 点跟它开源跟闭源其实没啥太大关系,对吧?

啊对,我是这样看的。

嗯,或者说我们以一个商业化角度来看,呃,开源和闭源,其实本质上一个是一个商业化的选择。

OK?

比如比如说 Meta 为什么要选择开源?

嗯,是因为当时它在呃跟 Google 和 open API 比的时候,它是比较落后的,它是要靠开言去呃做一个生态。

然后包括现在,其实它的效果也很好,就是 Meta 在国外的整个的口碑非常好,让这个公司都变焕发了活力。

他们还把那个 horizon OS 开放给了其他厂商,要做一个呃,新时代的 Android, 对啊,这就是一个商业化策略,一个战略,然后并不是说他呃,就是不想用这个东西赚钱,他最终还是要赚钱的,国内也一样,国内其实开源,比如说像呃灵异万物,嗯其实他们也发了呃新的闭源模型啊, OK 嗯嗯或者说开源,就是说在呃模型能力还没有那么高的商业化价值的时候先开源,因为你在嗯那个节点开源的话,你就是开源第一名或者前几名,但是如果地源的话是一个就是 10 名之外的模型,没有人关注实际用开源来换取了一些用户的注意力,嗯 OK。

了解其实你刚才有在讲说 Meta, 它显卡上面有优势嘛?

对,然后拉马 3 其实现在能力上面也跟 GBT4 接近了嘛?

其实我一直有一个疑问,就是国内大模型现在大家的能力基本都在 GBD4 附近对嘛?

然后你看拉马 3 发了之后也在 GBD4 附近,然后包括 Openai 最近发的 GBD4O 其实也没有突破 GBD4 本身的这个 bar 对吗?

我我其实也一直有一个疑问,就是比如说你看现在大家都在讲 scaling long, 只要我加显卡也好干嘛也好,就这个事就就能够去增长对,那为什么就现在这么久了还没有突破 GBD4 这个事情?

其实业界之谜就是大家都没有一个完完全的这个正确回答吧。

说从个人角度来看的话,嗯,基地 4 其实它的数据已经是 open 用,用到了所有的那股那种收集来的数据,嗯,渲染的一个,然后它如果是呃 scaling law 是三三方面一起完成 scaling 才可有价值。

你单纯的 scaling 一个显卡,呃,这种算力是没有意义的,它也需要足够的数据去喂饱它,所以呃可能 open i 应该在尝试一些东西,比如说它做这个 Sara 这个事情,以及说会生产一些这种人造的这种数据,应该都是他们在探讨的东西。

如果你不去人造数据的话,那数你是能收集数据就用完了,用完之后是无法继续死给 0,所以说了解呃,你看到呃 4O 比 4 多的其实是多模态,呃音频的东西,还有图像东西,就是因为呃 4 在训练的时候,一开始其实是一个文本模型,它是通过一个就是加训的方式去加了一些图片的关联进去,然后但是搜不是搜是那从一开始就是一个多模态模型,声音也好,就是图片也好,全部是通过一个类似 Server 的方式。

嗯,做了一个就是呃新的 TOKEN 化对它这个模型的本质已经变了,就看起来 OK, 能力好像是好了一点点,但其实这是真的是一个新的模型,只是说没有叫 5 而已。

对,老决定说就是一个 5 就一定是说这个智商上变高?

不一定的呀,可能是就是呃呃,会说话了,可能会唱歌了,是完全是可以的,没有问题。

呃我觉得你这个逻辑挺有意思的,就是其实它变成了啊,有点像摩尔定律,摩尔定律在单核上面,可能大家到极限之后大家就在整多核对吧,然后其实现在 GV4O 其实就在整多核嘛对吧?

对对对,就是单核那那块已经到瓶颈的时候,那整多核,多核之后它会解锁一些新的应用场景,对应用来说它的嗯这个新的模型,它在反应的实时性方面,以及这种语音语调方面都是有巨大突破的,对,这个其实是嗯还蛮强的,对应应用应用开发者来说是一片欢腾。

只是对投资人来说,就我觉得好像没有那么 help, 就感觉距离 AGI 没有往前走一步。

对,其实你在讲 AGI 这件事嘛,啊,其实 GPT4 里就是我们讲说你要做一个完全的智能体,它本身的能力我觉得离智能体应该还有一些距离的,其实大家都在讲说到底能不能把 GB4 再提升一步到 GBT5, 然后它的整个可能 API 的这部分能力可能会大幅提高,但是其实以现在的整个的包括 GB4O 的这个发展方向来讲,就也包括你刚才讲的说它的语料的问题嘛,就其实现在这一步好像离得有点远。

就是我不知道现在有没有一些在业界里边,大家觉得说这个智能体或者说这个 agent 其实它已经做得比较好了,有没有这样的案例,然后它也能平衡说它的那个成本还有它的整个效果,有没有这样的 agent?

嗯,智能体这个事情就去年就开始 help, 一直到今年还有 help, 就是想让模型自己靠自己的这种呃推理呃规划啊,去把自己这个结果提升。

但这件事情就很很不现实,就是嗯,因为模型现在是一个有幻觉的情况,然后嗯,包括他去写代码的时候,我们去看那个 human Evo 的这种评估,都是写好几遍才可以,实际上他每每多一步,他的这个错误率就会增加很多,比如说百分之八十乘以 80% 以下就是 64% 了。

对对对。

不是 work 的一个东西,然后呃,现在业界做的呃,实际上落地落得比较好的还是用这种啊,工作流的形式,就用呃很多确定的东西,呃以前的这种写代码的方式,用确定的代码,确定的变量来去啊,帮助他去模型,发挥出最大的这种呃效果,这样反而是好落地的。

嗯啊,包括像那个就是用那种 workflow 形式,然后 workflow 形式里面又是重点又是那个 rag, 这些东西都是为了增强这个模型的确定性。

本质上还是因为说模型是一个通用模型,它在每个领域每个 DOMAIN 它的能力的嗯分数可能只有一个六七十分,你需要给它通过工程的手段提升到 80 分以上,然后呢,再通过产品的手段给它提升到 90 分以上,这样才能交给用腰部用户。

如果你只是把模型交给用户的话,其实就不太行。

这这就是去年很多人在做事情,就是说啊,做了一个模型套壳,它就是一个六七十分的东西。

嗯,实际上是对于爱好者来说,他可以自己写 prompt 自己试。

对,但是对真的真正的用户来说是不合格的。

用户就是你不到九十分,对我来说就是 0 分,嗯。

对,我觉得你讲的这个特别有意思啊,就有点像说其实就智能体这件事,一上来就给大家整了一个 L5 的一个自动驾驶对吗?

然后其实真正大家能用的时候,其实也就是 L2 L2.5 对吧,然后真正在车上就是做一个车道保持,然后做一个智能辅助,可能就做这个,然后结果现在 L2 跟 L2.5, 就现在大家在讲说做 workflow 这件事,然后可能就火了,但是做智能体这件事始终都没有落地,包括其实现在像特斯拉,特拉,虽然他现在做了一个端到端,但实际上大家还是不敢,就是我看了很多视频,大家还是不敢百分百让他做,就是他总得去接管,但是接管概率可能会变小,但是他还是得接管,就这件事我觉得还是挺难的。

对嗯对这个其实是一个嗯技术浪潮的早期,它真的是一个早期,嗯,如果说我们现在就能做出智能体,那其实就好像已经距离 AG 也很近,但是嗯,这个这个这个技术发展其实没那么快,一般就是一个好几年的维度,就是还是要有点耐耐心的,像自动驾自动驾驶这个东西在他拉那个 V12 之前他就是用,就是上万条规则,对,就是本质上就是人气的规则嘛,对对,不断地刁滑不断地刁滑,然后但是还是有希望的,毕竟这个 V12 出来之后,好多地方还是是用过的人还是都觉得比之前要好的,只是说还是有些人不太呃信任嘛啊,这个也是,迭代就好。

嗯嗯, workflow 它本质上来说是一个反而你的代码几个具象化的东西,它最终还是代码那嗯,这个 workflow 积累足够多之后,把它训到模型里,其实才让模型能够学会说怎么去做一个 agent, 它是一个学习的过程,它不是一个自己模型误导的东西,对大模型的本质来说就是什么?

数据啊,来这之后泛化一下就变得更好,或者变得更广泛。

所以说这些我们现在做这些雕花,其实都是很好的数据。

嗯。

对,你这个逻辑挺有意思的,就是其实现在我们在用 workflow 里边的这些所有的数据,未来是可以帮我们去训练 NGI 的是吗?

对对对,可以的,就是像一些一些公司已经在尝试这件事情了嘛,所以就你看现在所有的做 AI workflow 的这公司,它的那个 workflow 都是可以导出来一个文件的,就是一些代码,嗯,而且可以 share, OK, 都可以进入进数据去训练的,嗯,对。

这个挺有意思的,就是其实现在你做了 L2.5 的这个自动驾驶,其实你就在积累数据,然后你积累数据足够好的话,有可能那天的突破有可能是你带领的,对吗?

嗯,对对,因为是这样,就说嗯,特斯拉它呃,为什么说最终能做到端到端的自动驾驶,其实是因为它先有了车,它的车在外面跑的时候在不断地收集这些数据,然后你看,收集这么多年,它的车在覆盖有数据之后,才能驯出这个 version 对它对它如果是不能是闭门造车的,它涉及的是这种端到端的数据,车自己去提那个收集的数据,而不不是那种就是第三方摄像头的这种东西。

对,一定是一个这样的顺序。

有一点像一个硬件的数据飞轮,我们也可以把这个东西的嗯当下阶段叫做一个智能体的数据飞轮,它得收集用用户怎么用,调用模型,然后模型会学会自己调用模型。

对你这么一讲,其实现在做 workflow 的公司好像特别有价值了呵,因为只有他们可能收集了特别多的 workflow 数据,对吗?

对,我觉得反正呃当下价值就是说可以很快落地,然后呃未来价值就是可以帮模型做更好的推理和规划。

因为你看你自己之前其实也是互联网产品经理嘛,然后也是最近这两年因为差 GBD 起来,然后做了 AI 嘛,我就想问你一下你自己的感受啊,就是做 AI 的产品经理跟做以前互联网的产品经理你觉得有什么区别啊?

我觉得区别最大的是啊,不确定性增加了。

OK, 就是以前的话,呃,技术上来说还是比较确定的。

对啊,我就就比如说手机这件事情,大家在用手机,然后手机每每天都会更新一些东西,然后有些新 feature, 它是一个有点像嗯逐渐地搭积木的过程。

然后呢, AI 的话就是一个什么呢?

是一个一下出来一个特别厉害的东西,但这个东西呢,在各个领域的这个水平是不一样的,然后他每训一个模型呢,甚至有可能某个能力会降,然后有有时候修完一个模型呢,我们以前的这些 prompt 都不能用了啊,它整体是一个非常不稳定的东西,嗯,模型输出呢,又是一个概率性的东西,有患有有错误,就是要在这种新的不确定的环境下去构建产品,这个还是一个新的挑战。

对。

嗯,要利用这些不确定的东西,因为你作为产品经理嘛,你要把这些不确定转化成确定,对吗?

啊,一个是转化,转化可能比较难,就是要寻找到一些相对特定的这种确定的领域,然后去用这种。

相当于是说从技术的擅长的地方和用户的实际场景里找这种交叉点,产品就是在找交叉点,然后呃,这个交叉点找,找到之后呢,呃,再通过一些这种工程手段以及产品设计,把它这个交叉点去呃,推到一个 90 分以上。

对,其实我特别想请教一点,你刚才讲说,因为大模型里面有幻觉,它可能出来的东西一开始是 60 分的,然后其实我们要通过工程,透过产品,然后把它提高到 90 分,能不能给我们教几招,你们用的特别容易去提升它的整个模型分数,或者说整个 AI 产品的这个分数的,就是把它的能力值能够快速拉升的一些方式方法。

我觉得最取巧的方式就是说,呃,利用幻觉, OK, 就做那个啊,呃 CI 的方向,它幻觉越好,呃结果产品就越好,就是让用户去唤醒,对,包括让用户写一些这种呃,相对来说比较剧情扮演,或者说呃,陪伴,对, OK, 这些这些的话,其实利用了这种 AI 的幻觉,然后嗯,呃,如果是我们呃在工具方向的话,还是希望 AI 的环节少一些嘛。

少一些的话,一个是可以通过这种算力叠加,我们去让他去啊,查几个网页,然后获得一个这种结果,之后用 RG 给他去提升这个结果准确性,对吧?

嗯,算力叠加的话,就是可以把这个数量增加,插 5 个网页变成 10 个网页,信息会多一些。

然后还有办法,就是说我们把原来是五个网页,我们把五五个网页换成了 5 个嗯,权威网站的网页,它的结果就会提升,对,然后以及说还有一些私域的信息,比如说呃, Kimi, 我们就把一些这种财报的文件直接放上去,作为这种呃来源,让它去总结,它就幻觉就更低了。

这样子哦, OK, 所以说其实还是要从外部上面去找大模型里边的内部的确定性,就是利用外部的那些确定性的内容,然后去提升我内部的幻觉,就是让它的幻觉降低,对吗?

啊,对,在幻觉上是这样的。

对,在有些有些地方是这样。

就是说模型是概率的。

对,但是我们做一件事情的成功率也是概率的。

嗯那嗯但模型好处是它降低了人的成本。

比如说有一个很好的一个应用场景是外呼。

呃,外呼的话就是我们让那些 AI 去给用户打电话,去销售产品,虽然说它成功率就很低,但是呢,你只要数量大,它还是能成交,但是总体的话会比什么概念,因为它就是一个很好的生意,能够反正现在做得比较好的已经能做到一个每年几亿的这样的一个应收可以 OK 了解啊我我最近知道你一个事。

我觉得特别有意思啊,就是你在 4 月 的时候,然后你说你要跟 50 个陌生人交流,然后包括 AI 啊,包括可能各种包括产品层面什么样各种各样的交流。

就你为什么想干这件事嗯为什么想干这件事?

对我觉得就是过去的一年多就是这个行业特别卷,然后每天就是 996 的生活啊,以及在公司的工作,逐渐地会发现自己的认知进入到一个很封闭的状态对嗯会的信息其实都是呃公司内部为主,然后你每天要跟同事在一起想的事情呢就是你手下的这个当前手上这个嗯就是我在做海螺嘛就是海螺反而呢会呃错过一些呃本来应该很重要但是呢永远都没有时间做的事情嗯嗯嗯,我就想说去了解一下呃行业里的这个每个人都在干嘛上嗯上游下游中游以及说包括竞品对现在我自有了嘛,就以前他们可能会忌讳说我去抄他们跟我说现在就啊没有这个这个戒心了那大家比较自由的沟通,然后会发现一个问题是好多的经验都是重复的,大家都去躺一个坑都躺过了,但这个就是让整个的这个整个行业都在躺坑都没往前走,但好多事情是说你,你可以问一下别人,告诉你真的就可以少做一个尝试,少少犯一个错误,这样大家进步是更快的。

嗯,然后就要不断地跟大家聊,然后发现了好多这样的事情,然后聊完之后大家都很开心,说感觉啊有些不确定,或者想想尝试的事情,现在觉得更确定了,对,然后就整个大家的认知在往前走,虽然是通过这种一对一的交流产生的,对对,但他们因为好多产品经理嘛,其实他们就代表了整个专业行业的认知,对对整个行业的这种从大的 mission 来说,还是说希望这个加速这个 AGI 落地嘛,对,也是做出一些小小的努力。

哈哈哈对。

我觉得你这个特别有意思,就跟现在雷总做小米苏 7 嘛对吧,就以前其实大家可能都是互相在打互相在卷的,然后雷总进来之后就说诶大家能不能一起合作一下对吧?

一致对外对吧?

对对对对对是就是让我觉得一个特别印象深刻的事情就是说跟字节跳动这样的公司聊的时候,他们说嗯他们其实不会介意说跟国内卷,他们其实只只会介意跟美国竞争啊 OK 所以说国内的竞争在他们看起来就比较比较小就没有意义所以其实还蛮愿意开放跟大家都一起呃就是去沟通。

包括我最近看到就豆包也把模型开放出来,然后火山火山引擎有好多服务都是把能力开放了,也是希望大家一起往前走的嗯对自己自己在国内特别先进,其先进其实并没有太大的这种呃意义在长远来看啊。

嗯诶。

那我其实就想问你一个问题啊,其实像包括百度嘛对吧?

百度其实它核心现在做得比较大,然后它主要的营收其实都在国内嘛。

然后其实国内的这一波大模型,包括 Kimi 啊这一波也好,其实大家的收入整体营收其实都在国内嘛。

但是国内的付费能力,其实跟 open AI 跟 Google 啊,就是他们的那种,大家的付费能力其实差异挺大的。

就是我不知道你怎么看出海这件事,就是或者说国内大模型出海,因为国内大模型的优势其实在中文语料上面嘛,其实在英文层面上面,大家并没有太强的差异化也好,或者说能力的优势也好,就是这方面,我不知道你怎么看对嗯对。

就国内的话,现在大模型落地,大家还是蛮蛮难获得收入的,嗯,一个还蛮早期的这种技术导向的阶段。

然后对呃,出海的话,呃,毕竟是说就是大家的推理成本一样嘛,嗯,国外对,其实现在出海本质上就是取欧美去让汇率,你在欧美的话,其实跑通一个商业化的那个打 PM, 对,找到 PMF 是更容易的对嗯,然后而且出海的话,你都不用不用,不需要自己的模型,就用 GBT4 就好了呀。

OK 但是你这样的话,你就不是大模型出海嘛,你就变成了应用出海了对吗?

啊对对对,我觉得啊,一,其实本质就是应用出海,大模型出海还蛮难的,就是特别是智能方向的模型,其实你看那个像千万和呃零一万 5 的模型,它的英文上对对 Lama Lama 或者说呃那个国外的 BI 模型差距还是有的嘛,人家也没有必要用,而且一天中国的模型就会天然有一种这种排斥对,然后应用的话,嗯,比如说像现在比较火的这种呃陪伴类,以及这种外黄类,嗯那呃它的就是总体门槛没那么高,所以嗯,你也可以理解为它是一种模型出海对那那我就有一个疑问。

就是比如说你看现在大家在国内就是比较风生水起的,然后拿融资拿得比较多的,本质上都是模型嘛,包括 Minimax 也好,包括零一啊,对吧,这一波其实大家拿的都是模型的融资,但是模型这件事在国内其实变现的话,我觉得 ToC 的变现其实是很难的,因为大家其实都是在用免费啊干嘛的,对,然后如果 ToB 变现的话,就又涉及到国内 ToB 的这种付费能力也好干嘛也好,其实本身也拿不了很多钱。

对,就是我不知道大模型公司未来是不是只是变成了说我自己的应用的一个底座,然后我可能很难去拿我自己的大模型去变现。

我觉得现在来看的话,我们把它放嗯放到一个十年的一个范围来看,那就是第二年,现在不那么着急,现在的显卡也不够,然后价格也比较高,嗯,对,他赚钱就是比较难啊。

但是这这好像说互联网的这个前两年其实也很难赚钱,可以不用不着急,然后 OK, 呃,他们拿到了最多的估值,其实我理解可以看做是资本市场给给你再交学费,嗯,就 OK。

嗯,大模型厂商还是有它的一些呃优势的,是说,因为它整个参与了从模型到最终产品整个流程,它在里面的一些 knowhow 确实是业界最先进的。

嗯,暂时是有,有的厂商可能不做产品,那有的有的应用,应用公司就不会做模型,借 API, 嗯,那他们的认知一定是不如一个就是既做模型又做产品的公司的。

就是的。

其实本质来说,我们去看创业,创业的前几年在在干嘛?

就是在积累认知,你的认知啊,靠前的时候,你就会在大家的共识里发现,翻那个非共识,靠这个非共识,然后再去堆叠你的资源,这样的话就建立了局部的竞争优势,这样也是为什么能创业公司能够跟大厂去呃对抗。

现在其实在拼的就是谁学得更快的,是学得更快,然后你可能会发现新的机会,对,然后再用以前你呃学过那些知识去把这个机会把握好。

对, OK, 你刚才也在讲说其实大家在去做出海的时候,其实核心在做应用出海嘛,对,因为你也在做整个生产力产品的负责人嘛,其实我特别想问你啊,包括我们给今天的我们印尼海克的听众聊一下,就是你觉得现在在应用层面上面有没有什么比较明显的机会,就大家是可以做的,其实可能不一定是那种大厂的机会,可能就是类似于我们做英迪骇客,做中小团队,这样的机会有没有?

嗯。

噢,现在有点像很多年前,我做那个黑莓,出海的时候,我可以做一个小工具,然后你就可以卖给那个海外的人,就就海外用户,他们对工具的付费意愿是非常强的啊,就 5 美元,对他们来说就不是什么钱。

然后啊,现在的话,出海是这样的,嗯, Tob 很多,看那个 YC 的一些项目都是 Tob 的,嗯,然后是个人的话,我觉得建议就是做小工具,小工具,嗯,是一个很细分的需求,有些都以前以前都满足不了啊,他可能很小,我举个例子啊,就是,嗯,前几天一个朋友,他做了一个 PDF 的重命名工具,哈,就是我们很多 PDF, 然后呢,比如说你去下 ARCHIVE 啊,它的命名是一个一串数字啊,但是你要去改名的话就很麻烦,它就让 AI 去读 PDF 的第一页,然后从里面找出一个标题,然后给你自动改名,批量地完成这样一小工具的,就是他做着玩的。

但是你说可以卖钱吗?

我觉得可以的,省你很多时间。

对,过几天就会推出,到时候大家可以下载一下。

对,所以说现在就是从你的角度上面来理解,现在其实也有点像就是小应用的这种,大航海时代大家还都在站嘛,对吧。

其实你如果只要做了,其实可能就能卖出去。

有机会嗯啊,对对对。

一个是呃 ToB, 如果你你在国内有一些 ToB 经验的话,你去出海做 ToB 还蛮好的,就你会发现很多的东西它是通用的嗯然后嗯小工具的话,像我不知道那个 podvice 算不算小工具,可能也一开始也比较小,对,但是它的空间还蛮大的,就是你把一件别人没有做那么好的事情,然后做到了一个局部的啊最好他就可以去呃获得一个很忠实的这种受众不是应该?

你们的收入也是还 OK 的对吧?

哈对没有那么多对对我我也觉得说现在其实 AI 的这个时间段,对于独立开发者也好,对于中小团队也好,其实是一个很好的机会,就是你可能在这个阶段里边你收获了认知,然后同时你还赚到了一份钱,然后可能你还拿到了你下一个阶段的一张门票对吧,有可能你现在的认知可能对你未来去做一个更大的事。

这个还蛮蛮同意的,在去年啊,你真的做了一年的出海,哪怕你没有赚到什么钱,你这个认知对于你找工作什么来说也是非常帮助的,我觉得没有一个公司会拒绝你这样的。

哈哈哈。

对对对对对,是的,确实这个是一个挺好的机会,而且我们其实做这个产品,包括做 Pod Vice, 其实一开始做出来之后,我们在国内的这些社交媒体,包括海外的,其实做了宣传之后,其实很多投资人就找过来了嘛,对,其实投资人也是觉得说诶,你能做一个这样的出海产品对吧,其实他对你的这个就是认可程度还是蛮高的,对,虽然我们没拿钱啊,对,但是其实我们跟很多投资人聊了很多,大家其实对于整个 AI 的产品还是蛮看重的。

对啊,是是是。

呃,现在这个阶段,我觉得你亲自去参与进来,其实已经超过 90% 的人了。

嗯,好多人还在等,还在等,说我看到一个明显的机会,其实这个机会往往就是你你先做,然后做起来。

我觉得我这两天跟做爱玩具的那个王乐聊,嗯,他他是去年他们一一开始做 Tob 的,在国内做 Tob 很痛苦哦,嗯,转 Toc 的话他也没做过,他怎么去验证这个需求呢?

他就啊拉了一个群说,这个群里说你们真的有需求的话,就每个人给我 100 块钱,我去给你做一个百块钱东西,然后如果有真的有需求就会收到钱,如果没有需求就收不到钱。

然后就他就拿到了一个,有 100 人,100 个人给他了 100 块钱,才知道是个需求,然后就做出来第一版,对,第一版也很差吧,就是一个呃,语音对话的产品,呃,从发送到回来要 15 秒以上啊。

OK!

就不可用。

但是你那些拿到的人就觉得很好玩,因为这是以前没有的东西。

对,然后他又在这个基础上去迭代,现在就做的产品就很很可用,我也买了一个,然后他们的产品也卖到了。

像这种中东呀,美国呀这样的市场就很厉害。

一个 7 月 团队对这个还挺有意思的。

其实其实我觉得你刚才讲的这个路径特别好,你看他一开始是拉了一个 100 人的群对吧?

其实我们一开始都在讲说我要验证需求,验证需求,其实付钱的需求比我一开始拉个群很多人进来,在那里起热闹起哄的那个需求要大得多得多,对吧?

对对对对,是的是的,嗯,人家花钱了,这个是真需求,刚需。

对,嗯,是的是的是的对,所以我觉得这个确实挺有意思的。

对。

我觉得因为它是硬件,硬件的 MVP 其实成本是很高的,你做一个是硬件是高,那你那你就先验证你的需求嘛,有需求然后就处理吧。

对对,有点,他其实自己在群里边做众筹了,对吗?

哈哈哈,对。

用一个软件的这种 MVP 思路在做点事情,后面迭代也是,然后下软件一样快。

对,他就很离谱,说,嗯,做了一个做,他们做了个说明书,然后做完说明书之后发现这个说明书已经过期了,因为新版硬件已经嗯,不能用这个说明书来这个指导了。

厉害唉,这个特别有意思,就是我们可以想一下,就是你能不能去找一个什么样的东西,然后能不能拉一个群,拉到多少个人,然后能够对吧大家给你付钱,然后能够众筹让你去做一个是有真需求的东西,我觉得这个路径上面我觉得是特别合适的。

对,而且你能拉到 100 个人的钱,你就能拉到 1000 个人,能拉到 1 万个人。

嗯,对,这只不过是一个放大的过程。

对对。

就是因为他那像王乐说他在推特上其实也没有多少粉丝的,一开始他反而是在做了这件事情之后,有了大概一两万人去关注他啊,是一个林立超说的事情哈哈哈可能你们在做之前也没有人,就是像我也不知道你们的播客对对对是复杂了。

我的对对对对是所以说其实大家都在类似于在做 building in public 的一个事对吧?

啊对,我觉得在一个技术浪潮早期做 building public 特别好,嗯,就是名利上手还获得很。

因为你自己创新是蛮孤独的,就是像比如说国内的模型,我们说第一梯队里边,他们其实都是清华系的,就是因为像清华那边会经常吃饭啊,交华认知啊什么的。

OK 有帮助的。

对,所以包括你看模型系的其实都是清华的嘛,其实大家都是一个圈子,包括你 building public 其实就会有很多人围上来就大家跟你去交流啊,干嘛的?

对,包括我们自己也是做了博客才有可能跟橘子老师一起聊嘛,对吧,哈哈哈,也是一样的。

对对,您能吸引到一些呃,很有趣的人,然后之前可能只能通过利益的方式来合作,现在可以通过兴趣的方式来合作。

对,可能撞出一些非常不一样的火花。

对对对对,是的,感谢橘子老师今天给我们这么精彩的内容啊!

最后给你 1 分钟广告时间吧。

哦,最近比较好玩的事情是说我跟很多人聊天嘛?

嗯,我觉得收获最大的还是跟一个嗯,公司的,就是创始人聊天。

嗯, OK。

然后我我会觉得说,呃,有机会跟他们聊的话会很好。

呃,如果你想聊的话,可以联系一下我,没准我们可以约一下。

OK, 包括现在的做 AI 的,包括做出海的,然后做应用的,反正就是各种各样的公司的创始人。

如果想跟桔子老师聊的话,可以在 Twitter 上面直接联系桔子老师。

对,好的,那感谢桔子老师今天接受我们的采访啊,大家也可以去关注一下桔子老师在推特上面,桔子老师也是一个大 v 啊,应该有 8 万多个粉丝。

对,然后哈哈哈对,今天我们也是告攀了对,哈哈哈对!

那我们本期节目就要不然就先到这里吧,后续我们有机会的话可以再跟菊老师再继续约,然后我们可以继续再聊点 AI。

那我们今天节目就先到这吧,我们下期再见。

嗯,拜拜嗯,拜拜嗯以上就是我们本期播客的全部内容,感谢大家收听,也欢迎大家踊跃留言,如果你喜欢我们,欢迎点赞并分享给感兴趣的朋友,如果你在用苹果播客收听,也希望你花几秒钟给我们一个好评,这会让更多的人了解到我们,要是能再点击一下订阅,那就再好不过了,我们下周见!