首页 手机文章正文

:并不想替代,搜索的未来是知识发现

手机 2024年08月07日 21:30 949 admin

编译:周静

本篇内容是Perplexity创始人AravindSriniva和LexFridman对谈的精华整理。除了分享了Perplexity的产品逻辑,Aravind也解释了为什么Perplexity的终极目标并不是颠覆Google,以及Perplexity在商业模式上的选择,技术思考等。

随着OpenAISearchGPT的发布,AI搜索的竞争、wrapper和模型公司在这件事情上的优劣势讨论再次成为市场焦点。AravindSrinivas认为,搜索其实是一个需要大量行业know-how的领域,做好搜索不仅涉及到海量的domainknowledge,还涉及到工程问题,比如需要花很多时间来建立一个具有高质量indexing和全面的信号排名系统。

在中,我们提到AI-native应用的PMF是Product-Model-Fit,模型能力的解锁是渐进式的,AI应用的探索也会因此受到影响,Perplexity的AI问答引擎是第一阶段组合型创造的代表,随着GPT-4o、Claude-3.5Sonnet的先后发布,多模态、推理能力的提升,我们已经来的AI应用爆发的前夜。AravindSriniva认为,除了模型能力提升外,RAG、RLHF等技术对于AI搜索同样重要。

以下为本文目录,

建议结合要点进行针对性阅读。

👇

01Perplexity和Google不是替代关系

02来自Google的启发

03产品:专注知识和好奇心

04技术:搜索是寻找高质量信号的科学

05PerplexityPages:搜索的未来是知识

06RLHF,RAG,SLMs

01.

Perplexity和Google不是替代关系

LexFridman:

Perplexity是如何运作的?搜索引擎和大模型分别在其中扮演了什么角色?

AravindSrinivas:

对Perplexity最合适的形容是:它是一个问答引擎。人们问它一个问题,它就会给出一个答案。但不同的是,它给出的每个答案都会有一定的来源作为支撑,这和学术论文写作有点像。引用的部分或者说信息来源是搜索引擎在发挥作用。我们结合了传统搜索,并提取了其中和用户提问相关的结果。然后会有一个LLM根据用户的query和收集到的相关段落,生成一个格式很适合阅读的答案。这个答案中的每一句话都会有恰当的脚注,用来标注信息的来源。

这是因为这个LLM被明确要求在给定一堆链接和段落的情况下,为用户输出一个简明扼要的答案,并且每个答案中的信息都要有准确的引用。Perplexity的独特之处就在于:它将多个功能和技术整合到了一个统一的产品中,并确保它们能够协同工作。

所以Perplexity在架构层面就被设计成输出的结果要像学术论文一样专业。

是的,我写第一篇论文的时候就被告知论文中的每一句话都要有引用,要么引用其他经过同行评审的学术论文,要么引用自己论文中的实验结果。除此之外,论文中的其他内容都应该是我们个人的观点评述。这个道理很简单却很有用,因为它可以强制让每个人只把自己已经确认无误的东西写进论文里。所以我们在Perplexity中也用到了这个原则,但这里的问题就变成了怎么让产品也遵循这条原则。

这种做法是因为我们有这种实际需求,而不是单纯为了尝试一个新想法。虽然我们自己之前的确处理过很多有意思的工程和研究问题,但从头开始创办一家公司的挑战还是很大的。作为新手,我们刚开始创业的时候,会面临很多问题,比如,健康保险是什么?这其实是员工的正常需求,但我当时觉得“为什么我会需要健康保险?”,如果我去问Google,无论我们怎么问,Google其实也都给不出很明确的回答,因为它最希望的事情是用户能点击它展示出的每个链接。

所以为了解决这件事,我们先是集成了一个Slackbot,这个bot只需向GPT-3.5发送请求就能回答问题,虽然听起来这个问题好像解决了,但其实我们并不知道它说得到底对不对,这个时候我们想到了自己做学术时候的“引言”,为了防止论文出错、通过评审,我们会保证论文中的每一句话都有恰当的引用。

随后我们意识到,其实Wikipedia的原理也是这样,我们在Wikipedia进行任何的内容编辑时,都会被要求为这段内容提供一个真实可信的来源,而且Wikipedia自己有一套标准来判断这些信源是否可信。

这个问题单靠智能程度更高的模型是无法解决的,在搜索及信源环节也还有很多问题需要解决。只有解决了所有这些问题,我们才能保证答案的格式、呈现方式都做到用户友好。

你刚刚提到Perplexity在本质上还是围绕搜索展开的,它具有一些搜索的特性,又通过LLM实现了内容的呈现和引用。就你个人而言,你会把Perplexity看成是一个搜索引擎吗?

其实我觉得Perplexity是一个知识发现引擎,而不只是一个搜索引擎。我们也会叫它问答引擎,这其中每个细节都很重要。

用户和产品之间的交互并不会在他们得到答案后就结束;相反,我认为这种交互在他们得到答案后才算真正开始。

我们还能在页面底部看到相关问题和推荐问题。之所以这么做,可能是因为答案还不够好,或者即使答案已经足够好了,但可能人们还是希望能够继续更深入地探讨并提出更多问题。这也是为什么我们会在搜索栏上写“Whereknowledgebegins”这句话。知识是永无止境的,我们只能不断地学习和成长,这是DavidDeutsch在TheBeginningofInfinity

这本书里中提出的核心理念。人们总是不断地追求新知识,我认为这本身就是一个发现的过程。

💡

DavidDeutsch:

著名物理学家,量子计算领域先驱。TheBeginningofInfinity

是他于2011年出版的一本重要著作。

如果你们现在问我或者问Perplexity一个问题,比如“Perplexity,你是搜索引擎还是问答引擎,又或是其他什么东西?”Perplexity会在回答的同时,在页面底部给出一些相关问题。

如果我们问Perplexity它和Google的区别,Perplexity总结出的优点有:能够提供简洁明确的答案、利用AI总结复杂的信息等,缺点则包括准确性和速度。这个总结很有趣,但我不确定是否正确。

是的,Google比Perplexity更快,因为它能立刻给出链接,用户通常可以在300到400毫秒之间得到结果。

Google在提供实时信息,比如体育比赛实时比分上的表现非常突出。我相信Perplexity肯定也是在努力将实时信息整合到系统中,但这么做的工作量很大。

没错,因为这个问题不只和模型能力相关。

当我们问“今天在Austin应该穿什么衣服?”这个问题时,虽然我们没有直接问Austin今天的天气怎么样,但我们确实想知道Austin的天气情况,Google就会通过一些很酷炫的小组件来展示这些信息。我认为这也恰恰体现了Google和chatbot之间的不同,信息既要能很好地呈现给用户,也要能充分理解用户意图。

比如,用户在查询股价时,尽管他们不会特意问历史股价的情况,但可能还是会对这些信息感兴趣,甚至他们其实也不关心,但Google还是会把这些内容列下来。

类似天气、股价这些都需要我们为每个query构建定制的UI。这也是为什么我会觉得这很难,因为这不仅仅是下一代模型能够解决前一代模型的问题。

下一代模型可能还会更智能。我们可以做更多事,比如制定计划、进行复杂的query操作、将复杂的问题分解成更小的部分进行处理、收集信息、整合不同来源的信息、灵活运用多种工具等,这些都可以做到。我们能够回答的问题也会越来越难,但在产品层面上,我们还有很多工作要做,比如,如何以最佳方式将信息呈现给用户,以及如何从用户的真实需求出发,提前预见他们的下一步需求,并在他们提出请求之前就把答案告诉他们。

我不确定这件事和设计特定问题的定制UI有多大的关系,但我认为如果内容或文本内容能符合用户的需求,是否Wikipedia风格的UI就够了?比如如果我想知道Austin的天气情况,它可以给我提供5条相关信息,比如今天的天气,或者“您需要每小时的天气预报吗?”,还有一些关于降雨和气温的额外信息等。

是这样的,但我们希望这个产品能在我们查询天气时,自动定位到Austin,而且它不仅能告诉我们今天Austin又热又湿,还能告诉我们今天应该穿什么。我们可能不会直接问它今天应该穿什么,但如果产品能主动告诉我们,那体验肯定会很不一样。

如果加入一些记忆和个性化的设置,这些功能可以变得有多强?

肯定会强很多倍。在个性化设置方面,存在一个80/20的原则。Perplexity可以通过我们的地理位置、性别以及经常访问的网站,大致了解到我们可能会感兴趣的主题。这些信息已经能为我们带来非常好的个性化体验了,它不需要拥有无限的记忆能力或者上下文窗口,也不需要访问我们做过的每一个活动,那会有点过于复杂了。个性化的信息就像具有赋权的特征向量(mostempoweringeigenvectors)。

Perplexity的目标是在搜索领域打败Google或Bing吗?

Perplexity不是一定要打败Google和Bing,也不是一定要取代它们。Perplexity和那些明确表示要挑战Google的初创公司最大的区别就在于:我们从来没有试图在Google擅长的领域中击败它。如果只是试图通过创建一个新的搜索引擎,并提供更好的隐私保护或者没有广告等差异化服务,来和Google竞争是远远不够的。

只是通过开发一个比Google更好的搜索引擎,并不能真正实现差异化,因为Google已经在搜索引擎领域占据了近20年的主导地位了。

颠覆性的创新来自重新思考UI本身。为什么链接需要占据搜索引擎UI的主要位置?我们应该反其道而行之。

其实在刚推出Perplexity的时候,我们对于是否应该把链接显示在侧边栏或以其他形式呈现出来有过非常激烈的争论。因为存在生成的答案不够好、或者答案中有hallucination的可能,所以有人会觉得链接还是展示出来比较好,这样用户就能点击并阅读链接里的内容。

但最终,我们的结论是即便出现错误的答案也没关系,因为用户还是可以再用Google进行二次搜索,我们整体上很期待未来的模型会变得更好、更智能、更便宜、更高效,索引会不断更新,内容会更加实时、摘要也会更加详细,:并不想替代,搜索的未来是知识发现所有这些都会让hallucination呈指数级下降。当然,可能还是会出现一些长尾hallucination。我们会一直看到Perplexity中出现hallucination的query,但会越来越难找到这些query。我们期望LLM的迭代可以指数级地改进这一点,并不断地降低成本。

这也是为什么我们倾向于选择更激进的方式,事实上,在搜索领域取得突破的最佳方式不是复制Google,而是尝试一些它不愿意做的事情。对Google来说,因为它的搜索量很大,所以如果为每一个query都这么做,会耗费大量资金。

02.

来自Google的启发

Google把搜索链接变成了广告位,这也是他们最赚钱的方式。你能不能谈一谈你对Google商业模式的理解,以及为什么Google的商业模式并不适用于Perplexity?

在具体聊Google的AdWords模型之前,我想先说明一下,Google的盈利方式有很多,就算它的广告业务面临风险,也并不意味着整个公司就会面临风险。比如,Sundar宣布说GoogleCloud和YouTube加起来的ARR已经达到了1000亿美元,如果把这些收入乘以10,Google应该能成为一家价值万亿美元的公司,所以即使搜索广告不再为Google贡献收入,它也不会有任何风险。

Google是互联网上拥有最多流量和曝光机会的地方,每天都会产生海量的流量,其中就会有很多AdWords。广告主可以通过竞标让他们的链接在和这些AdWords相关的搜索结果中获得靠前的排名。只要是通过这个竞标获得的任何点击,Google都会告诉他们这个点击是通过它获得的,所以如果通过Google推荐过来的用户在广告主的网站上购买了更多商品,ROI很高的话,他们就会愿意花更多的钱来竞标这些AdWords。每个AdWords的价格都是基于一个竞标系统动态确定的利润率很高。

Google的广告是过去50年里最伟大的商业模式。

Google其实不是第一个提出广告竞价体系的,这个概念最早由Overture提出,Google在它原有的竞价体系的基础上做了一些微创新,让它在数学模型上更加严谨。

你从Google的广告模式中学到了什么?Perplexity在这方面和Google有哪些异同点?

Perplexity最大的特点在于“答案”,而不是链接,因此传统的链接广告位并不适用于Perplexity。

也许这不是一件好事,因为链接广告位有可能会一直是互联网有史以来利润最高的一种商业模式,但对我们这样一个试图建立可持续发展业务的新公司来说,我们其实并不需要在一开始就设定一个“建立人类历史上最伟大业务模式”的目标,专注于打造一个良好的业务模式也是可行的。

所以可能存在一种情况是,长期来看,Perplexity的商业模式能够让我们自己盈利,但永远也不会成为像Google那样的摇钱树,对于我来说这件事也是可以接受的,毕竟大多数公司在它们的生命周期内甚至都不会实现盈利,比如Uber就是最近才转亏为盈的,所以我认为无论Perplexity的广告位存不存在,都会和Google有很大的不同。

《孙子兵法》中有一句话是:“善战者,无赫赫之功”,我觉得这很重要。Google的弱点在于,任何比链接广告位利润更低的广告位,或者任何削弱用户点击链接积极性的广告位,都不符合它的利益,因为这会减少高利润业务的部分收入。

再举一个和LLM领域更近的的例子。为什么Amazon先于Google之前就建立了云业务?尽管Google拥有像JeffDean和Sanjay这样顶尖的分布式系统工程师,并构建了整个MapReduce系统和服务器机架,但因为云计算的利润率低于广告业务,所以对Google来说,与其追求一个利润低于现有高利润业务的新业务,不如扩展已有的高利润业务;而对Amazon来说,情况恰恰相反。零售和电子商务实际上是它的负利润业务,所以对它来说,追求并扩展一个实际利润率为正的业务是理所当然的。

“Yourmarginismyopportunity”是JeffBezos的一句名言,他将这一理念应用到了各个领域,包括Walmart和传统的实体零售店中,因为它们本身就是低利润业务。零售是一个利润极低的行业,而Bezos通过在当日达、次日达上采取的激进措施,烧钱赢得了电商市场的份额,他在云计算领域也采取了相同的策略。

所以你认为Google会因为广告收益实在太诱人以至于无法在搜索上作出改变吗?

目前来说是这样,但这并不意味着Google马上就被颠覆了,这也正是这场游戏有趣的地方,这个比赛里没有明显的输家。人们总喜欢把世界看作是一场零和博弈,但其实这场游戏非常复杂,可能根本不是零和的。随着业务的增多,云计算和YouTube的收入不断增加,Google对广告收入的依赖程度就会越来越低,但云计算和YouTube的利润率仍然比较低。Google是上市公司,上市公司就会有各种各样的问题。

对于Perplexity来说,我们的订阅收入也面临着同样的问题,所以我们并不急于推出广告位,可能这种方式就是最理想的商业模式。Netflix已经破解了这个问题,它采用了一种订阅和广告相结合的模式,这样我们就不必牺牲用户体验和答案的真实准确来维持可持续业务。从长期来看,这种方式的未来尚不明确,但应该会非常有趣。

有没有一种方法可以把广告整合到Perplexity中,让广告在各个方面都能发挥作用的同时,还不会影响用户的搜索质量、干扰他们的用户体验?

是有可能的,但还需要不断尝试,最关键的是要找出一种方式,既不会让用户对我们的产品失去信任,又能建立起将人们与正确信源连接起来的机制。我比较喜欢Instagram的广告方式,它的广告会非常精准地针对用户需求进行定位,以至于用户在观看时几乎感觉不到是在打广告。

我记得ElonMusk也说过,如果广告做得好,它的效果也会很好。如果我们看广告的时候,不觉得自己在看广告,那才是真正做得好的广告。如果我们真的能找到这样一种不再依赖于用户点击链接的广告方式,那么我认为这就是可行的。

可能也有人通过某种方式来干扰Perplexity的输出,类似于今天有人会通过SEO来hackGoogle的搜索结果?

要防御这种行为难吗?

我们不能主动预测出每一个问题,有一些问题必须是被动应对的。这也是Google处理这些问题的方式,不是所有的问题都可以预见,所以才会这么有趣。

LexFridma:

我知道你很崇拜LarryPage和SergeyBrin,InThePlex

和HowGoogleWorks

也对你产生了很大的影响。你从Google以及LarryPage和SergeyBrin两位创始人那里得到了什么启发?

首先,我学到的最重要的一点,同时也是很少人谈到的一点就是:他们并没有通过做同样的事情来试图和其他搜索引擎竞争,而是反其道而行之。他们觉得:“大家都只关注基于文本内容的相似性、传统的信息提取和信息检索技术,但这些方法并没有达到很好的效果。那如果我们反过来,忽略文本内容的细节,而是在更底层的视角关注链接结构,并从中提取排名信号呢?”我觉得这个想法非常关键。

Google搜索成功的关键在于PageRank,这也是GoogleSearch和其他搜索引擎之间的主要区别。

最早是Larry意识到网页之间的链接结构也包含着很多有价值的信号,而这些信号可以用来评估网页的重要性。其实这个信号的灵感也是受到了学术文献引用分析的启发,巧合的是,学术文献引用也是Perplexity的引用的灵感来源。

Sergey则创造性地将这一概念转化为可实现的算法,也就是PageRank,并进一步认识到可以使用幂迭代方法来高效地计算PageRank值。随着Google的发展以及越来越多优秀工程师的加入,他们又从各类传统信息中进行信号提取从而构建出更多的排名信号,作为PageRank的补充。

PageRank

是一种由Google公司创始人LarryPage和SergeyBrin在1990年代后期开发的算法,用于对网页进行排名和评估其重要性。这个算法是Google搜索引擎最初成功的核心因素之一。

幂迭代:

是一种通过多次迭代计算来逐步逼近或解决问题的方法,通常用于数学和计算机科学中。这里“把PageRank简化为幂迭代"指的是将复杂的问题或算法简化为一种较为简单和有效的方法,以提高效率或减少计算复杂度。

我们都是搞学术的,都写过论文,也都用过GoogleScholar,至少在我们写前几篇论文的时候,我们每天都会去GoogleScholar上查看自己论文的引用情况。如果引用增加的话,我们就会很满意,并且大家都会认为论文引用量高属于很好的信号。

Perplexity也是这样,我们觉得那些被大量引用的域名会产生某种排名信号,这种信号可以用来构建一种全新的互联网排名模型,它不同于Google构建的基于点击量的排名模型。

这也是我崇拜Larry和Sergey的原因,他们有着深厚的学术背景,和那些本科辍学去创业的创始人不同。SteveJobs、BillGates、Zuckerberg都属于后者,而Larry和Sergey是Stanford的博士,拥有很强的学术基础,他们试图构建一个被人们使用的产品。

LarryPage还在很多其他方面启发了我。当Google开始受到用户欢迎时,他并没有像当时其他互联网公司一样,专注于建立商业团队或市场团队。相反,他表现出了一种与众不同的洞察力,他认为,“搜索引擎将会变得非常重要,所以我要尽可能多地聘请博士等高学历人才。”

当时正值互联网泡沫时期,很多在其他互联网公司工作的博士在市场上的雇佣价格并不高,所以公司可以花更少的钱招募到像JeffDean这样的顶尖人才,让他们专注于构建核心基础设施,开展深度研究,我们今天可能会觉得追求latency是理所当然的,但在当时这种做法并不是主流。

我甚至听说,Chrome刚刚发布的时候,Larry会刻意在旧笔记本上用非常老的Windows版本来测试Chrome,就这样他还要抱怨latency的问题。工程师们就会说,正是因为Larry在破旧的笔记本上测试,才会出现这种情况。但Larry却认为:“它必须要能在破旧的笔记本上运行良好才行,这样在好的笔记本上,即使是在最差的网络环境下,它也能运行良好。”

这个想法非常天才,我也把它用到了Perplexity上。我在坐飞机的时候,总会用飞机上的WiFi来测试Perplexity,想确保Perplexity在这种情况下也能运行良好,我还会拿它和ChatGPT或Gemini等其他APP进行基准测试,来确保它的latency非常低。

Latency是一个工程上的挑战,很多伟大的产品也证明了这一点:如果一款软件想获得成功就要把latency解决得足够好。比如Spotify早期就在研究如何实现低latency的音乐流媒体服务。

是的,latency很重要。每一个细节都很重要。比如在搜索栏中,我们可以让用户点击搜索栏,然后输入query,也可以准备好光标,让用户直接开始输入。每一个细微的地方都很重要,比如自动滚动到答案底部,而不是让用户手动滚动。或者在移动APP中,当用户点击搜索栏时,键盘弹出的快慢。我们非常关注这些细节问题,也会跟踪所有的latency。

这种对细节的关注其实也是我们从Google那里学到的。我从Larry身上学到的最后一个道理就是:用户永远不会错。

这句话很简单,却也非常深刻。我们不能因为用户没有正确地输入提示而责备他们。比如,我妈妈的英语不太好,她在用Perplexity的时候,有时候会告诉我Perplexity给出的答案不是她想要的,但等我看了她的query,我的第一反应就是:“还不是因为你输的问题不对。”随后我突然意识到,这不是她的问题,产品应该要理解她的意图才对,哪怕输入并不100%准确,产品也应该理解用户。

这件事让我想起了Larry讲过的一个故事,他说他们曾经想把Google卖给Excite,当时他们给Excite的CEO做了一个演示,在演示中,他们同时在Excite和Google上输入相同的query,比如“university”。Google会显示Stanford、Michigan等大学,而Excite则会随机显示一些大学。Excite的CEO就表示:“如果你在Excite上输入正确的query,也会得到相同的结果。”

这个道理其实非常简单,我们只需要反过来想一想:“无论用户输入什么,我们都应该提供高质量的答案。”然后我们就会为此构建产品。

我们会在幕后完成所有工作,这样即使用户很懒,即使存在拼写错误,即使语音转录错误,他们仍然能得到想要的答案,还会喜欢上这个产品。这可以迫使我们以用户为中心来开展工作,而且我也相信总是靠优秀的提示工程师不是长久之计。我认为我们要做的就是让产品在用户还没有提出请求的时候就知道他们想要什么,并在他们还没提的时候就给他们一个答案。

听起来Perplexity很擅长从一个不那么完整的query中弄明白用户的真实意图?

是的,我们甚至都不需要用户输入一个完整的query,只需要几个词就可以了。产品设计就应该做到这个程度,因为人们很懒,而一个好的产品就应该允许人们更懒,而不是更勤奋。当然,也有一种观点认为,“如果我们让人们输入更清晰的句子,就可以反过来迫使人们思考。”这也是一件好事。但最终,产品还是要有一些魔力的,这种魔力就来自于它可以让人们变得更懒。

我们团队有过一个讨论,我们认为“我们最大的敌人不是Google,而是人们不是天生就擅长提问的这个事实。”提出好问题也是需要技巧的,虽然每个人都有好奇心,但不是每个人都能把这种好奇心转化为一个表达清晰的问题。把好奇心提炼成问题需要经过很多思考,而确保问题足够清晰,并能被这些AI回答也需要很多技巧。

所以Perplexity其实也在帮助用户提出他们的第一个问题,再向他们推荐一些相关问题,这也是我们从Google那里得到的灵感。在Google中,会有“peoplealsoask”或类似的建议问题、自动建议栏,所有这些都是为了尽可能地减少用户的提问时间,更好地预测用户意图。

03.

产品:

专注知识发现和好奇心

Perplexity是如何被设计出来的?

我和我的联合创始人Dennis以及Johnny的初衷是用LLM来构建一个很酷的产品,但我们那时候还不太清楚的是这个产品最终的价值是来自模型还是产品。但有一件事是非常明确的,那就是具备生成能力的模型已经不再只是实验室里的研究,而是真正面向用户的应用。

包括我自己在内的很多人在用GitHubCopilot,我周围很多人都在用,AndrejKarpathy也在用,人们会为它付费。所以当下可能区别于以往任何时刻,以往人们在运营AI公司时通常只是不断收集大量数据,但这些数据只是整体中的一小部分,但这是第一次,AI本身才是关键。

对你来说,GitHubCopilot算是产品灵感来源吗?

是的。它其实可以看作是一个高级的自动补全工具,但相比于以前的工具,它其实在更深的层次上发挥了作用。

我创办公司时的一个要求就是它必须拥有完整的AI,这是我从LarryPage那里学到的,如果我们希望找到一个问题,如果我们在解决这个问题时可以利用AI的进展,产品就会变得更好。随着产品变得更好,就会有更多人使用它,也就可以创造出更多的数据,让AI进一步提升。这样就形成了一个良性循环,让产品不断地改进。

对大多数公司来说,拥有这种特性并不容易。这就是为什么它们都在努力寻找可以应用AI的领域。哪些领域可以使用AI应该很明显,我觉得有两个产品真正做到了这一点。

一个是Google搜索,AI的任何进步,语义理解、自然语言处理,都会改善产品,更多的数据也让嵌入式向量表现得更好,另一个是自动驾驶汽车,越来越多的人驾驶这种汽车意味着有更多的数据可供使用,也让模型、视觉系统和行为克隆更加先进。

我一直希望我的公司也能具备这种特性,但它并不是为了在消费者搜索领域发挥作用而设计的。

我们最初的想法就是搜索。在创办Perplexity之前,我就已经非常痴迷于搜索了。我的联合创始人Dennis,他的第一份工作就是在Bing。我的联合创始人Dennis和Johnny之前都在Quora工作,他们一起做了QuoraDigest这个项目,这个产品是根据用户的浏览历史,每天为他们推送有趣的知识线索,所以我们都对知识和搜索非常着迷。

我向第一个决定投资我们的EladGil提出的第一个想法就是,“我们想颠覆Google,但不知道要怎么做。不过我一直在想,如果人们不再在搜索栏里输入,而是通过眼镜直接询问他们所看到的任何东西,会怎么样?”之所以这么说是因为我一直很喜欢GoogleGlass,但Elad只是说,“专注点,如果没有大量资金和人才的支持,你是做不到这一点的。你现在应该先找到你们的优势,创造出一些具体的东西,然后再朝更宏大的愿景努力。”这个建议非常好。

那个时候我们就决定,“如果我们颠覆或者创造出了之前无法搜索的体验会是什么样子?”然后我们就想到了,“比如表格、关系数据库。以前我们无法直接搜索它们,但现在可以了,因为我们可以设计一个模型来分析问题,把它转换为某种SQLquery,运行这个query来搜索数据库。我们会不断地进行抓取以确保数据库是最新的,然后执行query,检索记录并给出答案。”

所以在此之前这些表格、关系数据库是无法被搜索的吗?

是的,在之前,类似于“LexFridman关注的人中,哪些是ElonMusk也关注的?”,或者像“最近的推文中有哪些是同时被ElonMusk和JeffBezos点赞的”这种问题是问不了的,因为我们需要AI能在语义层面上理解这个问题,并把它转换为SQL,再执行数据库查询,最后提取记录并呈现出来,这里面还涉及到Twitter背后的关系数据库。

但随着GitHubCopilot等技术的进步,这一切变得可行了。我们现在有了很好的代码语言模型,因此我们决定把它作为切入点,再次进行搜索,抓取大量数据,放入表格中并提问。

当时是2022年,所以其实这个产品当时还是叫做CodeX。

之所以选择SQL是因为我们觉得它的输出熵较低,可以模板化,只有少量的select语句、count等,相比于通用的Python代码,它的熵就不会那么大。但事实证明,这种想法是错的。

因为当时我们的模型只在GitHub和一些国家的语言上训练过,就像是在用内存很少的计算机进行编程一样,所以我们用了很多硬编码。我们还用到了RAG,我们会提取看起来相似的模板query,系统会基于此来构建一个动态的少样本提示,为我们提供一个新的query,并在数据库上执行这个query,但还是会有很多问题。有时SQL会出错,我们需要捕捉到这个错误,进行重试。我们会把所有这些都整合到一个高质量的Twitter搜索体验中。

在ElonMusk接管Twitter之前,我们创建了很多虚拟的学术账号,然后用API来爬取Twitter的数据,收集大量的推文,这也是我们第一个demo的来源,大家可以问各种问题,比如某个类型的推文、或者推特上人们的关注等等,我把这个demo拿给YannLeCun、JeffDean、Andrej等等,他们都很喜欢。因为人们喜欢搜索自己和他们感兴趣的人的相关信息,这是人类最基本的好奇心。这个demo不仅让我们获得了一些行业内有影响力的人的支持,还帮我们招到了很多优秀的人才,因为最开始没有人把我们和Perplexity当回事,但在我们得到这些有影响力的人的支持后,一些优秀人才现在至少愿意参加我们的招聘了。

你从Twitter搜索的demo上学到了什么?

我觉得展示以前不可能办到的东西很重要,特别是当它非常实用的时候。人们对世界上正在发生的事情、有趣的社交关系、社交图谱都非常好奇。我认为每个人都对自己很好奇。我曾经跟Instagram的创始人MikeKreiger交流过,他告诉我,在Instagram上最常见的搜索方式其实是在搜索框中直接搜索自己的名字。

Perplexity发布第一版产品的的时候就非常受欢迎,主要是因为人们只需要在Perplexity的搜索栏中输入自己的社媒账号就能搜到自己的信息,但因为我们当时用了一种很“粗糙”的方式来抓取数据,所以我们无法完整地索引整个Twitter。因此,我们用了一个回退方案,如果大家的Twitter账号没有被我们的索引收录,系统就会自动使用Perplexity的通用搜索功能来提取你们的部分推文并生成个人的社媒简介摘要。

有些人会被AI给出的答案吓到,觉得“这个AI怎么知道这么多我的事情”,但因为AI的hallucination,也有些人会觉得“这个AI说的都是什么”,但不管哪种情况,他们会把这些搜索结果的截图分享出来,发在Discord等等地方,进一步,就有人提问,“这是什么AI?”,于是就会得到回复,“这是一个叫Perplexity的东西。你可以在上面输入你的账号,然后它就会给你生成一些这样的内容。”这些截图推动了Perplexity第一波增长。

但我们知道传播是不持续的,但这至少给了我们信心,证明了提取链接和生成摘要的潜力,于是我们决定把重点放在这个功能上。

另外一方面,Twitter搜索这件事对我们来说可拓展性存在问题,因为Elon正在接管Twitter,Twitter的API访问权限越来越受限了,因此我们决定专注于开发通用的搜索功能。

转向到“通用搜索”之后,你们最初是怎么做的?

我们当时的想法是,我们没什么好失去的,这是一种全新的体验,人们会喜欢它的,也许会有一些企业愿意跟我们交流,要求我们做一个类似的产品来处理他们的内部数据,也许我们可以利用这一点来建立一个业务。这也是为什么大多数公司最终从事的并不是他们最初打算做的,我们从事这个领域其实也非常偶然。

一开始我觉得,“可能Perplexigy只是一个短期的流行,它的使用量会逐渐下降的。”我们是在2022年12月7日发布的,但即便是在圣诞期间,人们也还在使用它。我觉得这是一个非常有力的信号。因为在人们和家人一起度假放松时,完全没有必要用一个不知名的初创公司开发的一个连名字都很晦涩的产品,所以我觉得这是一个信号。

我们早期的产品形态还没有提供对话的功能,只是单纯地提供一个query结果:用户输入一个问题,它就会给出一个带有摘要和引用的答案。如果我们想进行另一个query,就必须手动输入新的query,没有会话式的交互或建议的问题,什么都没有。在新年后的一个星期,我们又推出了一个带有建议问题和会话式交互的版本,随后,我们的用户量开始激增。最重要的是,很多人开始点击系统自动给出的相关问题。

之前我经常被问到“公司的愿景是什么?使命是什么?”但我最早还只是想做一个酷炫的搜索产品,后来我和我的联创一起梳理出了我们的使命,“它不仅仅是关于搜索或回答问题,还关乎知识,帮助人们发现新事物,并引导他们朝着这个方向前进,不一定就是给他们正确答案,而是引导他们去探索。”因此,“我们想成为世界上最注重知识的公司。”这个想法实际上是受到了Amazon想成为“全球最注重客户的公司”的启发,不过我们更希望专注于知识和好奇心。

Wikipedia在某种意义上也在做这件事,它整理了世界各地的信息,并以一种不同的方式让它可访问和有用,Perplexity也以一种不同的方式实现了这一目标,我相信在我们之后还会有其他公司做得比我们更好,这对全世界来说都是一件好事。

我觉得这个使命比和Google竞争更有意义。如果我们把自己的使命或目的定在别人身上,那我们的目标就太低了。我们应该把自己的使命或目标定在比自己和团队更大的事物上,这样我们的思维方式也会完全超越常规,比如Sony就把自己的使命定为让日本跻身世界地图,而不是只把Sony放在地图上。

随着Perplexity用户群的扩大,不同群体偏好不同,肯定会出现产品决策带来争议的情况,怎么看待这个问题?

有一个非常有趣的案例是关于一个记事APP的,它不断为自己的高级用户增加新功能,结果新用户根本无法理解这个产品。还有一位Facebook早期的数据科学家也提到过:为新用户推出更多功能比为现有用户推出更多功能对产品的发展更为重要。

每个产品都会有一个“魔力指标”,这个指标通常就和新用户是否会再次使用这个产品高度相关。对Facebook来说,这个指标就是用户刚加入Facebook时的初始朋友数量,这会影响我们是否继续用它;对Uber来说,这个指标可能就是用户成功完成的行程数量。

对于搜索来说,我其实不知道Google最初是用什么来追踪用户行为的,但至少对于Perplexity,我们的“魔力指标”是能让用户感到满意的查询次数。

我们想要确保产品能够提供快速、准确且易读的答案,这样用户才更有可能会再次使用产品。当然,系统本身也必须非常可靠。很多初创公司都有这个问题。

04.

技术:

搜索是寻找高质量信号的科学

你可以讲讲Perplexity背后的技术细节吗?你刚刚已经提到了RAG,整个Perplexity做搜索的原理又是什么?

Perplexity的原则是:不使用任何没有检索到的信息,这其实比RAG更强,因为RAG只是说,“好的,用这些额外的上下文来写一个答案。”但是我们的原则是,“不使用任何超出检索范围的信息。”这样我们就可以确保答案的事实基础。“如果检索到的文档中没有足够的信息,系统会直接告诉用户,‘我们没有足够的搜索资源来为您提供一个好答案。’”这样做会更加可控。否则,perplexity的输出可能会胡言乱语,或者在文档中加入一些自己的东西。但即便这样,还是会存在hallucination的情况。

什么情况下会出现hallucination?

出现hallucination的情况有很多种。一种是我们有足够的信息来回答query,但模型在深层语义理解上可能不够智能,无法深入理解query和段落,并且只选择了相关信息来给出答案。这是模型技能的问题,但随着模型能力越来越强大,这个问题可以得到解决。

另一种情况是如果摘录文本本身的质量不佳,也会出现hallucination。因此,虽然检索到了正确的文档,但如果这些文档中的信息已经过时、不够详细,模型从多个源头获取的信息不足或者信息冲突,都会导致混淆。

第三种情况是,我们向模型提供了过多的详细信息。比如,索引非常详细,摘录内容非常全面,然后我们把所有这些信息都扔给了模型,让它自行提取答案,但它无法清晰地辨别需要什么信息,于是记录了大量不相关的内容,导致了模型的混乱,最终呈现出一个糟糕的答案。

第四种情况是我们可能检索到了完全不相关的文档。但如果模型足够聪明,它应该会直接说,“我没有足够的信息。”

因此,我们可以在多个维度上改进产品,来减少hallucination的发生。我们可以改进检索功能,提高索引的质量和页面的新鲜度,调整摘录的详细程度,提高模型处理各种文档的能力。如果我们能在所有这些方面都做得很好,就可以保证产品质量提升。

但总体上我们需要结合各种方法,比如在“信号”环节,除了基于语义或词汇的排名信号之外,我们还需要其他排名信号,比如评分域名权威性和新鲜度等页面排名信号,再比如,要给每一类信号赋予什么样的权重也很重要,这又和query的类别相关。

这也是为什么搜索其实是一个需要大量行业know-how的领域,也是我们为什么会选择从事这项工作。每个人都在谈论套壳、模型公司的竞争,但其实做好搜索不仅涉及到海量的domainknowledge,还涉及到工程问题,比如需要花很多时间来建立一个具有高质

量索引和全面的信号排名系统。

Perpelxity是怎么做索引(Indexing)的?

我们首先要建立一个爬虫,Google有Googlebot,我们有PerplexityBot,与此同时还有Bing-bot,GPT-Bot等等,每天都有很多这样的爬虫在抓取网页。

PerplexityBot在抓取网页的时候有很多决策步骤,

比如决定把哪些网页放入队列,选择哪些域名,以及多久需要对全部域名进行一次爬取等等,而且它不仅知道要爬取哪些URL,还知道如何爬取它们。对于依赖JavaScript渲染的网站,我们还需要经常使用无头浏览器进行渲染,我们要决定页面中的哪些内容是需要的,另外PerplexityBot还需要清楚爬取规则、哪些内容是不能被爬取的。另外,我们还需要决定重新爬取的周期,以及根据超链接决定将哪些新页面添加到爬取队列中去。

无头渲染:

指的是在没有GUI的情况下进行网页渲染的过程。通常情况下,网页浏览器显示网页内容时会有可见的窗口和界面,但在无头渲染中,渲染过程在后台进行,没有图形界面显示给用户。这种技术通常用于自动化测试、网络爬虫、数据抓取等需要对网页内容进行处理但不需要人工交互的场景中。

做完了爬取后,接下来要做的就是从每个URL中获取内容,也就是开始正式构建我们的索引(Indexing)了,通过对我们获取的所有内容进行后处理,将原始数据转化为排名系统可以接受的格式。这个环节需要一些机器学习和文本提取技术。Google有一个叫NowBoost的系统,可以从每个原始URL的内容中提取相关的元数据和内容。

这是一个完全嵌入到某种向量空间中的ML系统吗?

并不完全是向量空间。它并不是说一旦获取了内容,就会有一个BERT模型对所有内容进行处理,并把它们放入一个巨大的向量数据库中,供我们检索使用。其实实际不是这样的,因为把网页上的所有知识都打包成一个向量空间表示是很难的。

首先,向量嵌入并不是一个万能的文本处理方案。因为其实很难确定哪些是和特定query相关的文档,它应该是关于query中的个体还是关于query中的特定事件,或者更深层次地关于query的含义,以至于同样的含义适用于不同的个体时也能被检索到?这些问题引发了一个更根本的问题:一个representation究竟应该捕捉什么?让这些向量嵌入具有不同的维度,相互解耦,并捕捉不同的语义是非常困难的。这本质上也是在做ranking排名的过程。

还有索引,假设我们有一个后处理过的URL,还有一个排名的部分,可以根据我们提出的query,从索引中获取相关文档和某种得分。

当我们的索引中有数十亿页,而我们只想要前面几千页时,我们就必须依靠近似算法来获取前面几千个结果。

所以其实我们并不一定要把网页信息都全部存储在向量数据库中,还可以用其他的数据结构和传统检索方式。有一种叫做BM25的算法就是专门做这个的,它是TF-IDF的复杂版。TF-IDF是词频乘以逆文档频率,是一个很老的信息检索系统,但它到现在都还很有效。

BM25是TF-IDF的复杂版,它在排名方面击败了大多数的嵌入方法。当OpenAI发布他们的嵌入模型时有一些争议,因为它们的模型在很多检索基准上都没有击败BM25,这不是因为它不好,而是因为BM25实在太强大了。因此,这就是为什么纯粹的嵌入和向量空间无法解决搜索的问题,我们需要传统的基于术语的检索,需要某种基于Ngram的检索方法。

如果在某些特定类型的问题上Perplexity表现不及预期的话,团队会怎么做?

我们肯定首先会想怎么能让Perplexity在这些问题上表现得更好,但不是针对每一个query都要这样做。规模较小的时候可以这么做来取悦用户,但这种方法不具备可扩展性。随着我们用户规模的扩大,我们处理的query从每天1万个飙升到10万个、100万个、1000万个,所以我们一定会遇到更多的错误,因此我们需要找到解决方案,用更大的规模来解决这些问题,比如我们要首先找到并理解大规模的、具有代表性的错误是什么。

那么在query阶段呢?比如我输入了一堆废话,一个结构很乱的query,怎么才能让它变得可用呢?这个问题LLM能解决吗?

我认为可以。LLM的优势在于即使初始检索结果的精确性不高,但却有很高的召回率,LLM仍然能在海量信息中找到隐藏的重要信息,但传统搜索却做不到,因为它们会同时关注精确率和召回率。

我们通常说Google搜索的结果“10条蓝色链接”,其实如果前三四个链接都不正确的话,用户可能就会感到恼火,LLM要更加灵活,即使我们在第九或第十个链接中找到了正确的信息,把它输入到模型中,它仍然能知道这个比第一个更相关。因此,这种灵活性让我们可以重新考虑在哪些环节做资源投入,是继续改进模型还是改进检索,这是一个权衡。在计算机科学中,所有问题最终都是权衡的问题。

你前面提到的LLM是指perplexity自己训的模型吗?

是的,这个模型是我们自己训练的,这个模型叫Sonar。我们在Llama3基础上进行了post-training,让它在生成摘要、引用文献、保持上下文和支持更长文本方面表现得非常出色。

Sonar的推理速度比Claude模型或GPT-4o更快,因为我们很擅长推理

。我们自己托管模型,并为它提供了最先进的API。在一些需要更多推理的复杂query上,它仍然落后于目前的GPT-4o,但这些问题是可以通过更多post-training等解决的,我们也正在为此努力。

你希望perplexity的自有模型会是未来perplexity的主力模型或默认模型吗?

这其实不是最关键的问题。不代表我们不会训自己的模型,而是说如果我们问用户,他们在用Perplexity时,会在意它有没有SOTA模型?其实并不会。用户在意的是能不能得到一个好答案,所以无论我们用什么样的模型,只要能提供最佳答案就可以。

如果大家真的希望AI能普及,比如普及到每个人的父母都能使用,那我认为只有当人们不关心引擎盖下运行的是什么模型时,这个目标才能实现。

但需要强调的是,我们不会直接用其他公司的现成模型,我们已经根据产品需求对模型进行了定制。

无论我们是否拥有这些模型的weights,都无关紧要。关键是我们有能力设计产品,让它能和任何模型良好协作。就算某个模型有一些特殊性,也不会影响产品的性能。

你们是怎么做到让latency这么低的?如何进一步降低latency?

我们从Google那里得到了一些启发,有一个叫“尾部latency”的概念,是JeffDean和另一位研究者在一篇论文中提出的。他们强调仅仅通过测试几个query的速度,就得出产品速度快的结论是不够的。重要的是要跟踪P90和P99的latency,也就是分别代表第90和第99百分位的latency。因为如果系统在10%的时间内失败,而我们有很多服务器,就可能会发现某些query在尾部更频繁地失败,而用户可能并没有意识到这一点。这可能会让用户感到沮丧,尤其是在query量突然激增的时候。因此,跟踪尾部latency非常重要。无论是在搜索层还是LLM层,我们都会在系统的每个组件上进行此类跟踪。

在LLM方面,最关键的是吞吐量和第一个token生成的时间(TTFT),吞吐量决定了数据流式传输的速度,这两个因素都非常重要。对于那些我们无法控制的模型,如OpenAI或Anthropic,我们依赖它们来构建良好的基础设施。它们有动力为自己和客户提升服务质量,因此会不断地进行改进。而对于我们自己提供服务的模型,比如基于Llama的模型,我们可以通过优化内核级别来自行处理。在这方面,我们和投资了我们的NVIDIA开展了密切合作,共同开发了一个名为TensorRT-LLM的框架。如果有需要的话,我们会编写新的内核,优化各个方面,在确保提升吞吐量的同时不影响latency。

从一个CEO和创业公司的角度来看,算力层面的规模扩张是什么样的?

需要做很多决策:比如是应该花一两千万美元买更多的GPU,还是花500万到1000万美元从某些模型供应商那里购买更多的算力?

选择自建数据中心和使用云服务之间要区别是什么?

这个一直在动态变化,现在几乎所有东西都在云上。在我们目前的阶段,建立自己的数据中心非常低效。等公司规模变大后,这可能会更重要,但像Netflix这样的大公司也依然在AWS上运行,这证明用别人的云解决方案进行扩展也是可行的。我们也用的AWS,AWS的基础设施不仅质量很高,还能让我们更容易招募到工程师,因为如果我们在AWS上运行,其实所有工程师都已经接受过AWS的培训了,所以他们上手的速度快得惊人。

为什么你们要选择AWS而不是GoogleCloud等其他云服务商?

我们和YouTube之间存在竞争,PrimeVideo也是一大竞争对手。比如Shopify是建立在GoogleCloud上的,Snapchat也会用GoogleCloud,Walmart用的是Azure,有很多优秀的互联网企业不一定有自己的数据中心。Facebook有自己的数据中心,不过这是他们一开始就决定建的。在Elon接手Twitter之前,Twitter似乎也用了AWS和Google进行部署。

05.

PerplexityPages:

搜索的未来是知识

在你的想象中,未来的“搜索”会变成什么样?进一步延展开,互联网会朝着什么样的形态和方向去发展?浏览器会怎么变化?人们会怎么在互联网上进行交互?

AravindSrinivas

:如果把这个问题放大来看,在互联网出现之前,知识的流动和传播就一直是一个重要话题,这个问题比搜索要更大,搜索是其中一种方式。互联网提供了一种更快的知识传播的方式,它先是从按主题对信息进行组织和分类,比如Yahoo,然后又发展到链接,也就是Google,Google后来还尝试知识面板来提供即时回答。在2010年的时

候,Google的1/3流量就已经是这个功能贡献的了,当时Google每天的query量是30亿次。

另外一个现实是,随着研究的深入,人们提出了以前无法提出的问题,比如你可以提出“IsAWSonNetflix”这种问题。

你认为人类整体的知识储备会随着时间快速增加吗?

我希望如此。因为人们现在有能力、有工具去追求真理,我们能让每个人比以前更加致力于这件事情上,而且这件事也会带来更好的结果,即更多的知识发现。本质上,如果越来越多的人对事实核查和探究真相感兴趣,而不是仅仅依赖他人或道听途说,那这件事本身就相当有意义。

我认为这种影响会很好。我希望我们能创造出这样的互联网,PerplexityPages就是致力于这件事。我们让人们能在付出较少人力的情况下创建新的文章。这个项目的出发点来自对用户的浏览会话的洞察,他们在Perplexity上提出的query,不仅对自己有用,其实对别人也有启发。正如Jensen在他的观点中所说:“我做的是为了某个目的,我在其他人面前给一个人反馈,不是因为我想贬低或抬高任何人,而是因为我们都能从彼此的经验中学习。”

JensenHuang说过“为什么只有你能从自己的错误中学习呢?其他人也可以从别人的成功中学习。”这就是其中的内涵。为什么不能把我们在Perplexity的一个问答会话中学到的东西播报给全世界?我希望能有更多这样的事情发生。这只是一个更大计划的开始,人们可以在这里创作研究文章、博客文章,甚至可能是一本小书。

比如,如果我对搜索一无所知,但我想要创办一家搜索公司,有这样一个工具会很棒,我可以直接问它:“bots是怎么工作的?爬虫又是怎么工作的?排名是什么?BM25是什么?”在一小时的浏览会话中,我获得了相当于一个月和专家交流的知识。对我来说,这不仅仅是互联网搜索,而是知识的传播。

我们也正在Discover部分开发一个关于用户个人知识的时间轴。这个功能是由官方来管理、运营的,但我们希望未来能为每个用户定制个性化的内容,每天推送各种有趣的新闻。在我们设想的未来中,问题的起点不再仅限于搜索栏中,当我们听或读页面内容时,如果某个内容引起了我们的好奇心,我们就可以直接提出一个跟进问题。

可能它会很像AITwitter、AIWikipedia。

我在PerplexityPages上读到过一个内容是:如果我们想了解核裂变,无论我们是数学博士还是中学生,Perplexity都可以为我们提供相应的解释,这是如何做到的?它是如何控制解释的深度和层次的?这可能会实现吗?

是的,我们正在通过PerplexityPages来尝试实现这一点,这里可以选择目标受众是专家还是初学者,然后系统会根据不同的选择来提供符合实际情况的解释。

它是由人类创作者来完成的还是也是模型生成的?

这个过程中是由人类创作者选择受众,再让LLM满足他们的需求,比如我自己会在prompt上加入“参考费曼学习法的方式输出给我(LFIittome)。当我想学习一些关于LLM的最新知识时,比如关于某篇重要论文时,我需要非常详细的解释,我会要求它:“解释给我听,给我公式,给我详细的研究内容”,LLM能够理解我的这些需求。

PerplexityPages在传统搜索中是不可能实现的。我们无法定制UI,也无法定制答案的呈现方式,它就像一个一刀切的解决方案。这就是我们为什么会在营销视频中说我们不是一刀切的解决方案。

你怎么看上下文窗口长度的增加?当你开始接近十万字节、一百万字节,甚至更多时,会开启新的可能性吗?比如说一千万字节,一亿字节甚至更多,是否会从根本上改变一切可能性呢?

在某些方面确实可以,但在其他某些方面可能不会。我认为它让我们在回答问题时可以更详细地理解Pages内容,但请注意,上下文大小的增加和遵循指令的能力之间存在权衡。

大多数人在宣传contextwindow的提升时,很少被关注的是模型的指令遵循水平是否会有所降低

,因此我认为需要确保,模型在接收更多信息的同时是否还能保证不增加hallucination,现在只是增加了处理熵的负担,甚至可能会变得更糟。

至于更长的contextwindow能做什么新事情,我觉得它可以更好地进行内部搜索。这是一个目前没有真正突破的领域,

例如在我们自己的文件中搜索,搜索我们的GoogleDrive或Dropbox。之所以没有突破,是因为我们需要为此构建的索引与网络索引的性质非常不同。相反,如果我们可以把全部内容放入提示符中,并要求它找到某些东西,它可能会更擅长。考虑到现有的解决方案已经很糟糕了,我认为即使存在一些问题,这种方法也会感觉好得多。

另一个可能的就是memory,尽管不是人们所想的那种把所有数据都交给它,让它记住做过的一切,而是我们不需要一直提醒模型关于自己的事情。我认为memory一定会成为模型的重要组件,并且这种memory足够长,甚至是life-long的,它知道什么时候把信息存入单独的数据库或数据结构中,什么时候把它保留在prompt中。我更喜欢更高效的东西,所以系统知道什么时候把内容放入提示符中,并在需要时检索,我觉得这种架构比不断增加上下文窗口更加高效。

06.

RLHF,RAG,SLMs

你怎么看RLHF?

虽然我们把RLHF叫做“蛋糕上的樱桃”,但其实它特别重要,如果没有这个步骤,LLMs要做到可控性、高质量会很难。

RLHF和supervisedfine-tuning(sft)都属于post-training。pre-training可以看作是算力层面的rawscaling。Post-training的质量影响着最终产品体验,而pre-traning的质量则会对post-traning产生影响,如果没有高质量的pre-training,就不能具备足够的常识来让post-training产生任何实际效果,类似于我们只能教一个智力达到平均水平线的人掌握很多技能。这就是为什么pre-training这么重要,以及为什么要让模型要越来越大。把同样的RLHF技术用在更大的模型上,比如GPT-4,最终会使ChatGPT的表现远超GPT-3.5版本。数据也很关键,比如和coding相关的query,我们要确保模型在输出时能够用特定Markdown格式和语法高亮工具,还要知道什么时候应该用哪些工具。我们还可以把query分解成多个部分。

上面这些都是post-training阶段要做的事,也是我们如果要搭建出和用户互动的产品需要做的事情:收集更多数据,建立飞轮,查看所有的失败案例,收集更多的人类注释。我认为我们未来会在post-training有更多突破。

post-training环节除了涉及到模型训练,还有哪些细节?

:还有RAG(RetrievalAugmentedarchitecture)。有一个很有趣的思维实验是,在pre-training阶段大量投入算力来让模型获取普遍常识似乎是一种蛮力而低效的方法。我们最终想要的系统应该是以应对开卷考试为目标去学习的系统,并且我认为其实开卷和闭卷这两类考试中,得第一的不会是同一批人。

pre-training就像闭卷考试?

差不多,它能记住一切。但为什么模型需要记住每一个细节、事实才能进行推理呢?不知道为什么,似乎投入的计算资源和数据越多,模型在推理方面的表现也会越好。那有没有一种方法可以把推理和事实分开?在这方面有一些很有趣的研究方向。

比如Microsoft的Phi系列模型,Phi是SmallLanguageModels,这一模型的核心是,不需要在所有常规的互联网页面上进行训练,只关注那些对推理过程至关重要的token,但很难确定哪些token是有必要的,也很难确定有没有一个可以穷尽的token集能够涵盖全部的所需内容。

类似于Phi这样的模型是我们应该更多探索的架构类型,这也是我认为开源很重要的原因,因为它至少为我们提供了一个还不错的模型,我们可以在此基础上上post-training阶段进行各种实验,看看能否专门调整这些模型,让它们的推理能力得到提升。

你最近转了篇名为AStarBootstrappingReasoningWithReasoning的论文,你能解释一下Chainofthoughts以及这一整套工作方向的实用性吗?

CoT非常简单,它的核心思想是,强制模型经历一个问题推理的过程,从而确保它们不会过拟合、同时能够回答之前没有见过的新问题,就像是在让它们一步步地思考一样。这个过程大致是,首先提出解释,再通过推理得出最终答案,这就像是在得出最终答案前的中间步骤。

这些技巧对SLMs的帮助确实会比对LLMs的大,而且这些技巧可能对我们来说更有益,因为它们更符合通常的认知。

因此,相比于GPT-3.5,这些技巧对GPT-4来说并没有那么重要。但关键在于,总有一些提示或任务是当前的模型所不擅长的,怎么才能让它擅长这些任务呢?答案是启动模型自身的推理能力。

并不是说这些模型没有智能,而是我们人类只能通过自然语言和它们进行交流以提取它们的智能,但它们的参数中压缩了大量智能,而这些参数多达数万亿。但我们提取这些智能的唯一方法就是在自然语言中进行探索。

STaR论文的核心是:首先给出一个提示及相应的输出,形成一个数据集,并为每个输出生成一个解释,再用这些提示、输出和解释来训练模型。当模型在某些提示上表现不佳时,那么除了训练模型得出正确答案外,我们还应该要求它生成一个解释。如果给出的答案是正确的,那么模型就会提供相应的解释,并用这些解释进行训练。无论模型给出的是什么,我们都要训练提示、解释和输出的整个字符串。这样,即使我们没有得到正确答案,但如果有正确答案的提示,我们就可以尝试推理出是什么让我们得到那个正确答案的,再在这个过程中进行训练。从数学上来说,这种方法和变分下界与潜变量相关。

我认为这种将自然语言解释作为潜变量来使用的方法非常有趣。通过这种方式,我们可以精炼模型本身,让它能够对自身进行推理。可以不断收集新的数据集,在这些数据集上进行训练,以产生对任务有帮助的解释,然后寻找更难的数据点并继续进行训练。如果能以某种方式跟踪指标,我们就可以从一些基准测试中开始,比如在某个数学基准测试上得分30%,然后提高到75%或80%。所以我认为这会变得非常重要。这种方法不仅在数学、coding上表现出色,如果数学或编码能力的提升,可以让模型在更多不同的任务中展现出色的推理能力,并能让我们利用这些模型来构建智能体,那我认为这会非常有趣。不过目前还没有人通过实证研究证明这种方法是可行的。

在自我对弈的围棋或国际象棋比赛中,谁赢了比赛就是信号,这是根据比赛规则来判断的。在这些AI任务中,对于数学和编码等任务,我们总是可以通过传统的验证工具来检验结果是否正确。但对于那些更开放的任务,比如预测第三季度的股市,我们根本不知道什么才算正确答案,也许可以用历史数据来预测。如果我只给你第一季度的数据,看看你能否准确预测出第二季度的情况,并基于预测的准确性进行下一步的训练。我们还是需要收集大量类似的任务,并为此创建一个RL的环境,或者可以给代理人一些任务,例如让它们像一个浏览器一样执行特定任务,并在安全的沙盒环境中进行操作,任务的完成与否将由人类来验证是否达到了预期的目标。因此,我们确实需要建立一个RL的沙盒环境,让这些代理人能够进行游戏、测试和验证,并从人类那里获取信号。

关键在于,相对于获得的新智能,我们所需的信号量要少得多,因此我们只需要偶尔和人类互动即可?

抓住每一个机会,通过不断的交互,让模型逐步改进。所以也许当递归自我改进机制被成功攻克时,智能爆炸就会发生。等我们实现这个突破后,模型就能通过不断的迭代应用,用相同的计算资源来增强智力水平或提高可靠性,然后我们就决定要买一百万个GPU来扩展这个系统。在整个过程结束后会发生什么?在过程中,会有一些人类按下推动的“是”和“否”按钮,这个实验非常有趣。我们目前还没有达到这种水平,至少我知道的没有,除非在某些前沿的实验室中进行了一些保密研究。但到目前为止,我们离这个目标似乎还很远。

但好像也没有那么遥远。现在一切好像都已经准备就绪了,尤其是因为现在很多人都在用AI系统。

我们在和一个AI对话的时候,会不会感觉像是在和Einstein或Feynman交谈?我们问他们一个难题,他们会说:“我不知道”,然后在接下来的一周里做很多研究。等到过一段时间我们再和它们交流,AI给出的内容我们大吃一惊。如果我们能够达到这种推理计算的量级,那么随着推理计算的增加,答案的质量也会得到显著的提升,这将是推理真正突破的开始。

所以你认为AI是能够进行这种推理的?

是有可能的,虽然我们目前还没有完全攻克这个问题,但这并不意味着我们永远也攻克不了。人类的特别之处就在于我们的好奇心。即使AI攻克了这个问题,我们依然会让它继续去探索其他事物。我觉得AI还没有完全攻克的一件事就是:它们天生不具备好奇心,不会提出有趣的问题来理解这个世界,并深入挖掘这些问题。

用Perplexity的过程就像是我们提出了一个问题,然后回答它,又继续下一个相关的问题,然后形成一个问题链。这个过程似乎可以灌输给AI,让它不断地搜索。

用户甚至都不需要问那些我们建议的确切问题,这更像是一种指导,人们可以随便提问。如果AI能自行探索世界并提出自己的问题,再回来给出自己答案,就有点像是我们拥有了一台完整的GPU服务器,我们只需给它一个任务,比如探索药物设计,让它想办法用AlphaFold3来制造治疗癌症的药物,有了成果再回来告诉我们,然后我们可以支付给它,比如1000万美元,来完成这项工作。

我认为我们不需要真的担心AI会失控并掌控世界,但问题不在于访问模型的weights,而在于是否拥有、接触到足够的算力资源,这可能会让世界更加集中在少数人手中,因为并非每个人都能负担得起如此庞大的算力消耗来回答这些最困难的问题。

你认为AGI的局限主要在算力层面还是还是数据层面?

是推理环节的计算,我认为如果某一天我们能够掌握一种可以直接针对模型weights做迭代的计算方法,那么pre-training或post-training这样的划分方式也就不那么重要了。

排版:Fia

标签: 并不想替代搜索的未来是知识发现

卓越科技网 网站地图 免责声明:本网站部分内容由用户自行上传,若侵犯了您的权益,请联系我们处理,谢谢!联系QQ:2760375052 版权所有:卓越科技网 沪ICP备2023023636号-5