去中心化AI的开源革命会创造核威慑下的和平吗?
时间:2024-07-24 来源:区块链网络 作者:区块律动BlockBeat
译者注:在《广场与高塔》一书中,作者尼尔·弗格森详细探讨了历史上权力如何在中心化权力结构(高塔)和去中心化网络(广场)之间不断转移。通过分析历史事件,弗格森揭示了网络在政治、经济和社会变革中的重要作用,强调了现代社会中网络力量的增长。 以弗格森的观点为背景,本期 Delphi 播客围绕中心化与去中心化 AI 两种技术发展路径展开了激烈对话。四位嘉宾首先剖析了信任与隐私在 AI 采用中的重要性,并细致区分了不同类型的 AI 和其背后的激励结构。讨论进一步触及了消费者在便捷性与隐私保护之间的选择权问题,以及中心化权力所带来的脆弱性和安全隐患。 讨论的核心问题之一是如何构建一个去中心化的 AI 竞品,特别是在当前高度集中的技术范式下。嘉宾们分析了现有的规模模型及其局限性,并讨论了开源解决方案的潜力。他们认为,随着国家安全的考量和经济价值捕获的需求,分布式方法的重要性日益凸显。 此外,播客还讨论了经济价值捕获和分销在 AI 商业模式中的作用,以及大公司与小公司在分销渠道上的护城河问题。通过对 OpenAI 与 Meta 不同商业模式的对比,嘉宾们详细阐述了去中心化 AI 和加密货币的颠覆潜力,特别是在信任和确定性执行方面的优势。最后,他们展望了 AI 在区块链上的金融化潜力,并指出 AI Agent 的广泛应用将成为这一领域实现指数级增长的催化剂。 文章很长,建议收藏。 TL;DR · Delphi 研究员 Michael Rinko 认为资本主义为技术发展提供了很好的激励机制。私营公司通过开发有用且对人们安全的产品来获得丰厚的回报。因此,把 AI 这项技术交给私营部门并不像人们想象的那样糟糕。各个私营部门中的竞争对手会为了成为最有用的技术提供者而互相竞争,最终将这些技术以最安全的方式提供给消费者。相反,如果让这项技术完全开放,有些人会利用这些技术来进行恶意活动,而目前还没有找到有效的方法来阻止他们。最好的办法是提供某种受控的访问,这正是私营部门所能做的。 · Gensyn 联创 Ben Fielding 认为资本主义奏效的前提是可审计性。如果没有审计机制,公司可能会在追求利润的过程中做出对世界有害的事情。开源模型则可以在不影响公司开发模型能力的情况下实现可审计性。此外,讨论 AI 的危险时不应该涉及它在未来理论上可能做的事情,因为任何可能性都是存在的。 · Ambient 联创 Travis Good 认为大公司将不得不转向更分布式的 AI 发展范式,以实现规模化。当前的范式成本高昂且难以达到超大规模,他们必须在某个节点上进行转变,而这种转变对他们来说是非常昂贵的。模型的扩展本身不会停止,但我们成功管理和部署这些模型的能力会在模型性能下降之前就开始下降。 · Delphi 研究员 Pondering Durian 认为,目前资本市场和大公司之间存在一个反身循环。大公司获得了很多廉价资金,所以有很大的火力去追求规模法则。但问题在于,大公司是否有足够的收入来证明持续投资的合理性?如果不能,人们就会停止为它们提供资金,Google、Amazon 和 Facebook 都会受到严重打击,它们将无法建立那些 1000 亿的集群。 · Ben Fielding 认为大模型公司真正的护城河是实际的分发能力。OpenAI 将试图提供利用智能进行分发的软件,但很快,所有拥有分发能力的公司都会想要脱离 OpenAI。Meta 认识到他们的护城河是他们将这些模型分发给用户的能力。他们能够将这些模型应用于实际的现实世界中,而不仅仅是试图从模型本身赚钱。所以他们驱动开源模型,不是出于利他主义,而是为了实际的战略收益。 · Michael Rinko 认为加密能为 AI 解决的问题有三点:第一,加密是无信任的。在加密中你不必信任任何人,这对 AI 来说是一个很有吸引力的特性。第二,加密是确定性的。现实世界是随机的,充满不确定性,但 AI 不喜欢这种不确定性,它会更喜欢确定性执行,加密提供了这一点。第三,AI 可以通过加密实现超级资本主义。加密可以将任何东西金融化,AI 可以利用这一点来积累资源。 Tommy:我是 Delphi Ventures 的创始合伙人 Tommy,很高兴今天能主持这场关于加密 AI 与中心化 AI 的讨论。我邀请到了四位业内顶尖的专家,让他们来介绍自己。首先是 Gensyn 的联合创始人 Ben Fielding。Gensyn 致力于通过去中心化计算推动机器学习的边界。我们还有 Ambient 的联合创始人 Travis Good,他们专注于世界级的开源模型,也是我们的投资组合公司。这两位代表加密 AI 阵营。 Delphi 方面有高级市场分析师 Michael Runco,他在 2024 年 2 月撰写了 Delphi 的首份 AI 报告《The Real Merge》。还有匿名分析师 PD,他撰写了关于中心化与去中心化 AI 的精彩报告《The Tower & the Square》。这也是我们今天讨论的主题。 让我们按这个顺序做个简短的自我介绍,Ben 先开始吧。 Ben Fielding:谢谢邀请。我是 Gensyn 的联合创始人,Gensyn 是一个机器学习计算协议。你可以把我们看作是一个协议层,有点像早期的网络协议,能够覆盖具备机器学习能力的硬件,并允许它被用于全球任何机器学习训练任务。我们的理念是,不再局限于使用 AWS 或谷歌云这样的资源来训练模型,而是可以利用全球任何设备。你可以直接将模型发送到单个设备,或是选择一部分设备组成任意规模的计算集群。这将机器学习计算变成了一种类似电力的商品,而不是必须从某人那里租用和预定时间的 GPU。它变成了一种始终可用的交易市场。 Tommy:很有帮助。Travis,轮到你了。 Travis Good:好的,我是 Travis,Ambient 的联合创始人。我的教育背景是 IT 博士,过去十年一直专注于 AI 相关的行业应用,包括与药物发现和关键基础设施相关的项目。 Michael Rinko:大家好,我是 Michael,Delphi 的分析师,主要关注市场分析,但也涉及其他领域。正如 Tommy 所说,我几个月前写了一份关于 AI 的报告,今天很高兴能和大家讨论这个话题。PD,你来介绍一下自己吧。 Pondering Durian:大家好,我是 Pondering Durian,Delphi 研究团队的一员,主要负责研究和投资消费者互联网、企业软件和加密领域。很高兴能参与这次讨论,期待与大家交流。 中心化与去中心化 AI 的对比 Tommy:PD,能不能先介绍一下你的报告内容?这是我们今天讨论的起点。 Pondering Durian:好的。报告的标题是《The Tower & the Square》,是对斯坦福历史学家 Niall Ferguson 的书的致敬,他在书中探讨了层级和网络之间的动态关系。我认为过去 30 年是网络崛起的故事,从全球化、自由化、资本主义到互联网、加密货币和社交媒体等,都是网络崛起的表现。然而,在过去五年里,传统层级结构又重新显现,国家和企业重新占据主导地位。而 AI 的出现似乎在目前的形态下确实是一个相当大的中心化力量。因此,摆在我们面前的真正问题是,未来是少数西海岸巨头控制的数万亿参数模型,还是各种形态和规模的去中心化模型的世界?两种观点都有很好的论据,这就是我们今天要讨论的内容。 Tommy:Ben 或 Travis,你们谁先开始?作为更倾向开源阵营的一方,你们的观点是什么? Travis Good:好的,我来复述一下 PD 的观点,看看理解得对不对。你提到我们已经看到这个领域出现了大规模整合,实现了垂直扩展,这给闭源 AI 带来了明显的优势。我基本同意这个判断。 然后你提出了两种可能性:我们是要面对闭源阵营推出的万亿参数基础模型,还是会出现大量不同的模型?我想补充一点,还有第三种可能:开源阵营也可以开发自己的万亿级参数模型,在能力上与闭源模型一较高下。 我可以这样大致概括你的观点吗? Pondering Durian:是的,你说得很好。目前我们看到垂直整合的产品在能力上遥遥领先,但这些模式并没有证明自己像 Web2 时代那样具有粘性。所以目前看起来闭源玩家似乎占据优势,但未来如何还有待观察。我认为去中心化 AI 和开源社区有一套可行的方案,可以在大规模模型以及整个技术栈的各个层面提供替代选择。 Travis Good:完全同意。我认为在这个时候,可能有必要区分什么是理想的,什么是可能的。在闭源 AI 的可取性方面,我想和大家一起思考一下,欢迎大家随时插话。很多人可能听过这个观点,我们都是「赛博格」。我们的生活已被计算机深度介入,不断从各种设备获取信息。我们已是「增强人类」。我认为 AI 或 AGI 将成为我们未来的「协处理器」,我们会不断与之互动来提升自己。未来它甚至可能直接与我们的大脑集成。 那么问题来了:你希望这个「协处理器」值得信赖吗?我很难相信这些垂直整合的「监视资本家」能提供可靠方案。从个人角度看,让这些曾滥用用户和客户的公司掌控我们的思维,似乎极其危险。我们不接受 NSA 企图在我们所有加密通信中植入后门的 Clipper 芯片,我们也不应该接受闭源公司试图介入我们和这个帮助我们思考的思维协处理器之间。 这是我对个人层面的看法。在谈社会层面前,我先停下来,听听大家的想法。 Ben Fielding:我完全同意这种未来观。我认为机器学习和 AI 作为人类能力的增强是最明显的发展方向。 其实,我们已经在经历这种技术进步了。比如,看看我们如何使用互联网,以及那些在共享知识库环境中成长起来的一代人。虽然我没有具体的参考资料,但有研究表明,我们记忆信息的方式已经发生了变化,现在我们更多的是记住如何通过 Google 等工具获取信息,而不是信息本身。我认为这种趋势会继续,人类会围绕这种新工具学习,最终与之完全融合。我同意,不应由某个单一实体控制这种工具,我们不希望这个实体拥有对我们大脑中内容的审查能力。 我认为,从激励系统的角度来看,这些企业并没有做什么恶意的事情,它们只是追求利润,这是我们对企业的期望,也是系统设计的初衷。但我们现在需要思考的是,如何在保留这种激励机制的同时,通过小的调整,避免过多的权力集中在一个地方。历史上我们已经看到了垄断的负面影响,尤其是在某些领域,这种影响是非常严重的。而在 AI 领域,这种影响可能会被进一步放大,因为它直接影响到人们的思维。你可以说,这种情况在社交媒体上已经发生了,而 AI 将是这种影响的更深一层。因此,我完全同意你所说的观点,这也是我们对未来世界的看法。 Michael Rinko:我想从另一个角度提出一些观点,扮演一下「反方辩手」的角色。 我认为关于这个话题的一个挑战是,大家讨论的具体是什么类型的 AI?我们是在谈论现在的 AI,比如聊天机器人或 ChatGPT,还是未来几年可能出现的通用人工智能(AGI),或者是能够统治世界、殖民银河系的人工超级智能呢? 不同类型的 AI 所面临的权衡和激励机制是不同的。我认为最容易理解的是现在我们面临的情况:如何利用当前的技术构建一个尽可能安全的世界。毫无疑问,当前闭源 AI 可能是我们管理这项技术的最安全方式,并且对于可预见的未来来说也是如此。我会列出几个观点,希望听听你们的反应。我认为,当你提到激励机制时,这引起了我的一些思考。 实际上,我认为资本主义和我们当前的经济体制提供了很好的激励机制。公司通过开发有用且对人们安全的产品来获得丰厚的回报。如果你开发的产品不够有用,或者对人们造成了伤害,你就赚不到很多钱。换句话说,从根本上讲,当前的激励机制似乎是有效的。我们每年创造了大量财富,不平等现象有所下降,这些指标总体上显示世界在不断进步,我认为这很大程度上归功于资本主义,通过这种奖励机制,鼓励人们以安全的方式解决问题。 我看不出 AI 会使资本主义失效。所以,我认为把这项技术交给私营部门并不像人们想象的那样糟糕,因为这只是信任资本主义能够发挥作用。各个私营部门中的竞争对手会为了成为最有用的技术提供者而互相竞争,最终将这些技术以最安全的方式提供给消费者。如果你相信这一基本原则,那么通常来说,就会出现以最安全的方式提供的最佳解决方案,这就是一个良好的未来。 相反,如果让这项技术完全开放,任何有电脑和互联网的人都可以创建和传播这些 AI。那么,虽然可能不是现在,但在未来的某个时刻,这些 AI 可能会造成重大损害和伤害。世界上有些人会利用这些技术来进行恶意活动,而我们目前还没有找到有效的方法来阻止他们。我认为,最好的办法可能是某种受控的访问,这正是私营部门所能提供的。 AI 采纳中的消费者偏好与安全问题 Pondering Durian:我可以插一句吗?我想补充一点,因为我认为关于资本主义和安全的论点很好,但我也想提到,随着时间的推移,每一代消费者基本上都选择了便利而不是理想的隐私解决方案。所以,实际上,在接下来的三到五年里,我更担心的是,每个消费者的口袋里都有一部苹果 iPhone,大家都在使用 Google,他们有这个美妙的 Google 套件,这个套件将与 AI 集成在一起。如果认为这些由大公司运营的协处理器不会自动通过最简单的方式被消费者所接受,并逐渐成为默认解决方案,实在有点过于理想化了。 这些产品会非常好,正如 Michael 所说的那样。因此,你可能会滑向一个危险的坡道,因为这些自然优势,用户会倾向于选择这些产品,即使从社会层面来看,这些产品并不理想。这是我想补充的一点。 Ben Fielding:是的,我同意这种发展趋势,特别是对用户而言,仅靠意识形态理由来推动某种产品的采用在大规模应用中并不奏效,这可能只会吸引一小部分用户,但不会广泛传播。我的上一家初创公司专注于消费者隐私,我非常明确地学习到了这个教训,而且学得很辛苦。 但回到 Michael 的观点,当你提出另一种选择的危险性时,你的论点是基于当前的现实,但很快就跳到了未来可能发生的事情。我认为,每当我们讨论 AI 的危险时,总是会涉及它在未来理论上可能做的事情,我们进入了一个无限的可能性空间。如果我们现在考虑这个系统实际能做的危险,而不是未来的假设能力,这样的讨论会更有意义。否则,我们会失去反驳的能力,因为任何可能性都是存在的。 关于资本主义解决这些负面影响的问题,我同意,前提是要有审计性。如果没有审计性,如果公司可以在追求利润的过程中做出对世界有害的事情,而这种行为从未影响到它的利润,我认为作为一个经济理性行为者,这家公司可能会这样做。因此,我们必须在系统中引入某种审计机制,以发现这些问题。 你可以从政府监管的角度来解决这个问题,或者可以采用另一种方式,即开放开发某些技术。我认为后者对世界更好,因为我们可以在不影响公司开发模型能力的情况下实现审计性。特别是,当模型的价值并不完全体现在它的架构上,而是在其他地方时,这一点尤为重要。目前我们仍在探索机器学习模型的真正价值所在。我个人认为,价值在于分发能力,但实际上我们在这个问题上一直在探索和调整。我认为模型的架构本身可以是开放的,但在数据和应用等其他领域可能存在专有价值。 Travis Good:我想插话,补充一下你的观点,同时也稍微表达一下不同的看法。我在做一些笔记,Michael,你首先谈到了激励机制以及它们的良好效果。我认为普通消费者可能会不同意你的看法。 Cory Doctorow 谈到了互联网的「大衰退」,任何使用过 Google 的人都知道,与过去相比,它的用户体验变得很糟糕。对企业来说,广告体验也是很差的。衰退发生在去中介化的参与者,比如 Google,开始过多地占据了蛋糕的一部分。我们从对 Google 的诉讼中了解到,它实际上操控了游戏规则,使广告价格上涨,对用户提供了很难找到有用结果的体验。而且,他们对此并没有受到实际的惩罚。我们需要更深入地探讨原因,或许是因为公司行为的不当监管或缺乏监管,可能是因为惯性,但最终我们得出的情况远未达到资本主义的最优状态。 我们实际上得到了一个所谓的「寡头最优」状态,监控资本主义者获得了丰厚的回报,而几乎所有其他商业类型都受到了影响。例如,我不认为新闻媒体对 Facebook 多年来的处理方式感到满意。所以,我认为,要了解未来的趋势,只需看看过去的经历。例如,看看青少年抑郁症的上升,以及 Facebook 算法的操控,所有这些滥用行为都可以作为借鉴。 Michael Rinko:我认为你提出了一些很好的观点,Travis,我会回应其中的一些。我们可能只是观点不同,我对技术的发展持非常乐观的态度。我认为,纵观人类历史,技术的进步总体上改善了人们的生活。如果你把一百年前的人带到今天,他们会发现能够即时发送短信、视频通话、叫车到家门口、点餐送上门,简直就是纯粹的魔法。 所以,虽然青少年抑郁等副作用确实存在,但这些问题相比技术带来的巨大好处,只是一个小部分。AI 也不会例外。此外,关于未来可能的危险,我承认这确实是一个问题。AI 特别难以理解,即使是顶尖实验室也无法完全理解为什么模型会做出某些行为。 而且,如果你看看历史上那些双重用途或具有危险性的技术,比如原子弹,你可以通过测试来判断它的危险性。如果它爆炸了,那显然是危险的,不应该被释放;如果不爆炸,那它就不起作用,也不危险。而对于这些模型,我们无法明确界定它们的作用范围,所以是否应该发布它们的问题非常模糊。这使得监管机构或顶尖专家很难设定安全措施。我想知道你们对此有何看法。 Travis Good:Ben,你要先回应吗? Ben Fielding:简单回应一下,你提到了乐观主义,但我们不知道这些技术将来会如何呈现自己,所以假设它们会带来负面的情况。当然,乐观的立场是它们目前没有负面影响。我们不知道未来是否会有不好的结果,但乐观地看,应该没问题。然而,当涉及到模型本身及其未来的表现时,乐观态度就变得悲观了。 Tommy:PD,我也想听听你的看法。 Pondering Durian:对,回到 Travis 的观点,不可否认的是,市场集中度在过去几十年里急剧上升。消费者因为难以找到所需的信息,而需要某种形式的内容策划。这实际上就是 Ben Thompson 在过去近二十年里所主张的,如果你在线上聚合需求,那么供应就会随之而来。因此,围绕这些「围墙花园」形成了网络效应,因为它们的策划能力很强。 这些公司通过其特权位置,形成了数据垄断和现金流垄断,赋予了它们巨大的市场权力,随着时间的推移,这些权力逐渐变得更具剥削性,而不是网络初期的增长阶段。由于 AI 更像是一种延续性的技术而非颠覆性技术,它实际上进一步巩固了这些市场权力,除非我们有不同的解决方案。 要成为主导的基础模型,现在的关键因素是人才、数据分布和资本。从主导 Web2 时代产生的网络效应和用户来看,这些实体在 AI 新时代中处于非常有利的位置。考虑到计算成本的高昂和它们所拥有的专有数据集,从我的角度来看,虽然这可能不是最理想的社会状态,但这是我们当前系统的现实。 我不认为资本主义是坏的,但现在有四五家公司确实拥有很大的市场权力。看看 S&P 500 指数,五家公司占据了 30% 的份额,而且还在增加,这确实是一个问题。在下一代互联网中,去中心化的趋势可能不会出现,反而会进一步集中。因此,这一点值得关注,因为我们所创建的系统中确实存在着推动几家公司拥有大量市场权力的结构性逆风。 Travis Good:安全性问题经常被提到,我不想跳太远到未来,但我确实想指出一些关于当前配置的威胁模型的问题。现在我们有四家公司掌握所有数据,未来它们会拥有更强的 AI 能力。我认为这是一个非常糟糕的威胁模型。 首先,这些公司都曾被黑客入侵。例如,微软在多次审计中未能保护关键的国家安全数据,甚至丢失了本应无法被盗的硬件密钥。集中所有数据和这些模型的能力,使这些公司成为每个国家、独立黑客组织等的最具吸引力的攻击目标。如果这些权力更为分散,我们有可信的开源竞争者来执行某些功能,这种情况可能会有所改善。 Michael Rinko:Travis,我可以插一句吗? Travis Good:当然。 Michael Rinko:你提到当前技术状态下的寡头垄断,未来的 AI 技术世界中数据集中会有什么不同?如果这些寡头继续存在,会有何进展? Travis Good:让我具体说明一下。现在 ChatGPT 已经集成到各种应用中,如 Notion、Evernote、电子表格等。它在许多程序中代表用户行事的能力意味着数据积累量惊人。结合通过监控资本主义获取的数据,所有从手机、网站 cookies 等处收集的信号,产生了一份详细的个人情报档案。这种数据集中形成了巨大的国家安全威胁,例如几年前美国政府的背景调查提供商被黑客入侵,导致安全清单被盗,这是一场灾难。 我们从许多内部人士那里得知,这些公司的安全性非常糟糕,政府的安全性也很差。如果我们认为这是健康的范式,那我们就陷入了一个非常脆弱的局面。 Tommy:我觉得目前两方观点似乎一方是意识形态上的,比如加密 AI 更注重消费者偏好、隐私和未来的好处。而另一方是现实主义的,比如中心化 AI 拥有最多的数据、硬件和人才,更直观的使用体验。Ben 或 Travis 能否描述一下如何建立一个实际的竞争替代方案? 去中心化 AI 的优势与潜力 Travis Good:我认为这是一个很好的问题,它涉及到什么是理想的和什么是可能的。因此,我很乐意先尝试回答一下,然后再交给你,Ben。从可能性角度来看,我认为重要的是要注意到,机器学习(ML)并不是一个严格的科学领域,实际上任何人都可以对其做出贡献,而且已经有很多贡献是对之前范式的相对简单的改动。所以,ML 的进入门槛相对较低。 这对未来的开源能力来说是个好兆头,因为随着计算成本越来越低,人们将有能力在更大的规模上进行实验和创新。我认为世界各地的人才将会在这个领域中动员起来,投身于这项事业。我还认为,许多国家的政府会意识到,他们希望在新的经济范式中保持竞争力,因此他们会资助很多这方面的研究。全球的研究机构也会集中精力在这个领域建立能力。 目前我们还没有完全到达这一点,我们有一些模型大致接近前几代模型,但我认为未来非常光明,因为全世界的人才将不仅仅集中在旧金山,而是应用于解决这一具有巨大经济回报的挑战。 Tommy:是的,这非常有帮助。Ben,我想听听你的看法,你对 Travis 的想法有什么补充吗? Ben Fielding:我认为我们讨论的两种观点有些模糊,因为双方基本上都在说我们想要的是高水平的正常资本主义行为和竞争。但目前「塔式模型」的发展方向是,大型模型构建者的激励机制是阻止这种竞争发生。他们不一定希望有那种程度的竞争,ML 底层的资源在很大程度上可以被控制,以阻止过多的竞争发生。 但正如 Travis 所说,ML 本身并不难。所需的专家知识已经被去中心化了,学术出版物已经实现了这一点,你可以获取这些论文,至少在 OpenAI 开始集中研究人员去构建模型之前,你可以获得代码来实现这些模型。但接下来你会遇到数据训练模型的瓶颈,这在很大程度上也已经被开放了,因为互联网上有大量的开放数据,尽管我们可能会遇到版权问题,但作为个体,你仍然可以获得大量数据来训练这些模型。 接下来是计算资源的限制,计算资源是更容易被控制的。如果你拥有无限的资源,你可以占有这有限的资源的大部分,并将其锁定。这些模型构建者还拥有最大的云服务生态系统,这意味着他们能够控制资源的供应和使用成本。 如果我们展望未来,ML 将成为依赖于电力的东西,最终是电力转换为知识转化。你需要特定的硬件来实现这一点,所以硬件资源是可以被捕获的。如果让这种情况继续发展,大公司将通过捕获底层资源来控制利润,这不是我们想要的结果。 如果是实际竞争的价值传递到最终用户,那么让它变得尽可能开放是好的。但这并不是完全开放的竞争,而是对资源的捕获和租赁,而这并不是资本主义的良好结果,我们希望的是实际的价值创造。 最终,模型通过使用会被不断削弱,这意味着模型本身无法长期保持其竞争优势。我们需要找到其他方式来保持竞争力,比如通过建立生态系统,让更多人参与其中,实际竞争提供价值的界面,而不是资源的捕获。这样,ML 的真正价值在于用户层面,提供实际改善生活的东西,并通过前端竞争推动技术的不断发展。这样,背后可以是一个完全开放的生态系统,提供更丰富的竞争和更好的结果。 Travis Good:首先,我认为 Ben 所说的非常出色,他比我更清晰地表达了许多观点。其次,我想从历史的角度评论一下目前的可能性。我们在 AI 计算数据中心看到的大规模增长有点像一个意外的淘金热。如果 ChatGPT 从未发布,我们可能不会看到这种对特定范式的模型训练的关注。 现在,这已经成为范式,大玩家们都被锁定在这个模式中。这对他们来说是一个容易进入的模式,因为资本投入产出相对明确。训练方法和秘密配方相对简单,问题是,哪些资本主义激励机制可以对抗这种情况。我认为,分布式训练或高效训练的形式,能够利用长尾计算资源的训练将会出现,因为它们具有巨大的经济价值。 只要我们能防止 Ben 提到的最坏情况发生,比如通过监管锁定所有计算资源,我们就可以期待有开源、对消费者友好的分布式训练解决方案的出现。最近,我们已经看到了一些巨大的进展,比如不需要矩阵乘法的训练技术,这显著降低了数据共享的需求。还有其他许多论文在绕过当前范式的带宽限制。虽然我们还没有完全实现,但我预计在一年内,我们会看到三种有力的替代大数据中心范式的方案,这将为开源努力增添一些动力。 AGI 的发展路径辩论 Michael Rinko:我认为你们都提出了非常有说服力的观点。对我来说,现在的一个大问题是,规模法则是否成立?你是看好还是看衰规模法则?让我来解释一下这两种情况。如果你看好规模法则,那么你会尽可能多地积累计算资源,并希望通过扩展这些模型来获得越来越强大的模型。如果你看衰规模法则,那么你认为在某个节点上,计算和损失之间的关系会中断或至少平稳下来。你可能认为这些模型可以被简化,或者你认为当前的深度学习范式是错误的,AGI(通用人工智能)将来自于一种与当前模型完全不同的方法。 我没有非常明确的看法,但在我看来,有两种截然不同的阵营。OpenAI 和 Anthropic 以及 Google 是规模法则的坚定支持者,自从 GPT-3 论文发表后,这些公司一直在尽可能多地积累计算资源,认为规模是通向 AGI 的关键。而另一边,包括许多加密 AI 领域的人和 Meta 的顶级研究人员则认为,LLM(大型语言模型)不会带来 AGI,我们需要新的方法。你们怎么看待这个问题?因为如果确实是规模和计算资源决定一切,那么我不知道如何击败那些大公司。所以我们似乎都暗中下注,仅靠扩展模型无法解决问题,因为那样我们就进入了一个无法赢得的资源竞赛。 Ben Fielding:我不认为规模的问题只指向中心化的方法。我认为,这里有一个不同的转折。你想一想规模,意味着什么?我能否在一定数量的设备上创建模型,我能否创造更多的设备并在其上创建模型?我们目前处于一个蛮力扩展的范式,即以最中心化、最容易建模的方式投入计算资源,我们获得了快速的胜利,展示了可能性。这就像是机器学习的尖端,让世界意识到类似 ChatGPT 这样的东西实际上是可能的。但接下来会发生什么呢?一旦证明了这一点,接下来会有一波改进浪潮。这已经不再是一个研究问题,而是一个执行、工程、性能优化的问题。因此,后续会有一个巨大的浪潮,将这些模型商品化、缩小、量化、压缩、稀疏化,使其运行得更快、更容易。 你需要有实际的证据来证明这是可能的,需要大量的计算资源来实现这种可能性。但随后所有的产品都可以以不同的方式,更小的方式构建。蛮力的方法本身已经开始碰壁。 Michael Rinko:为什么会碰壁? Ben Fielding:数据中心空间和足够多的设备互联规模变得越来越困难。我曾认为这是资金问题,你需要越来越多的钱来实现这一点。我曾经向 Meta 的一位高管提到这一点,他笑着说,基本上我们有无限的资金,不是资金问题,而是地理位置的问题。地球上没有那么多地方可以建造能够维持这种规模互连设备的数据中心,这使得超大规模的数据中心转向了水平扩展的路线。 现在你会看到一波论文说,嘿,其实我们可以做多节点、多数据中心建模。试想一下,这意味着什么?谷歌可以在三个数据中心上进行这种建模,但如果有人能在四个、五个数据中心上进行建模呢?最终,这种扩展的极限是将全球所有的设备连接起来,这需要跨公司合作。所以,单个公司与其他所有公司竞争是不可能胜出的。如果你能建立一个让这种连接发生的层,那将是最终的扩展胜利。 Michael Rinko:我明白了。我想确保我理解这一点,因为这是一个重要的问题。你是说我们不能让数据中心比现在更大,还是说我们不能在一般情况下建造更多的数据中心,因为电力不足或者其他原因? Ben Fielding:不是不能建造更多的数据中心,而是会有递减效益。找到能够支持所需电力和冷却需求的地理位置,符合当地噪音法规,并能容纳足够多设备的地点变得越来越难。这导致超大规模公司在争夺地球上剩余的适合地点。某种程度上,这会有一个逻辑终点。 如果你能激励人们在世界各地建造这些数据中心,而不仅仅是在单一地点,那么你就可以将这些设备连接起来,创建一个更大的集群。这会带来一些负面影响,比如这些分布更广的小型集群之间的通信速度较慢,但这不是一个不可逾越的问题,而是一个我们可以通过工程手段解决的问题。我们有丰富的互联网历史来克服这些问题,比如延迟问题和分布式系统工作。 Travis Good:我认为这个问题有两个答案,Ben 提供了其中之一,我有一个可能你不同意的观点。我认为一个答案是,大公司将不得不转向更分布式的范式,以实现规模化。这将减慢它们的速度,因为它们现在处于错误的范式中。当前的范式成本高昂且难以达到超大规模,他们必须在某个节点上进行转变,而这种转变对他们来说是非常昂贵的。 另一个问题是,即使我们解决了这个问题,并且可以无限制地扩大规模,模型能力是否会达到一个平台期?这是一个关于模型能力与资源的关系的问题。我认为这个问题与模型的对齐有关。以安全关键应用为例,黄金标准是形式化验证系统,即你必须数学证明系统在特定条件下的行为。这在大型语言模型中是非常困难的,因为每次与模型交互都会创建一个功能上不同的路径。 我认为扩展本身不会停止,但我们成功管理和部署这些模型的能力会在模型性能下降之前就开始下降。我认为我们已经到了这个节点。 Michael Rinko:我们现在不理解模型为什么会输出某些结果。 Ben Fielding:我们在技术上遇到了这个问题,我们正逐步进入一个概率世界。自动驾驶汽车是一个很好的例子,我们知道它们在统计上比人类驾驶更安全。但因为它们是概率性的,我们在接受它们会做出安全选择时存在社会障碍。我们需要从形式化的逻辑转向概率性的逻辑,从整体上看,这对人类是有利的。 Travis Good:我认为这是一个非常合理的观点,但我想补充一点,就是在接受这些主张的情况下,如果 AGI 可能会做出极其危险的事情,那么一个错误可能会对文明造成灾难性的后果。问题是,如果我想部署一个系统,而有 30% 的可能性因为我有这个无限的 API 攻击面,这个系统会对文明造成灾难性的坏结果,我能按照你的模型部署它吗?我的答案是绝对不行,然后整个发展曲线会在大家尝试做基础研究,找出如何实现超对齐之前停滞一段时间。这是我的思维模型。 Ben Fielding:这需要假设可能会发生一些巨大的负面结果。目前没有实际的例子表明模型现在能够做什么。例子总是说,如果模型将来能够做什么。这总是一个可能性,这是概率模型的特点。我们需要接受一个事实,即可能会有非常高影响、但概率非常低的负面结果,作为人类,我们在与世界互动时本来就是在处理概率问题。我们需要从更加命令式的技术转向概率性的技术。 Pondering Durian:我感觉这个话题很快会陷入 AGI 和超对齐的讨论。因此,回到封闭与开放的问题上来。 Tommy:感谢你把话题拉回到正轨。 Pondering Durian:我的观点是,目前资本市场和超大规模公司之间存在一个反身循环。它们获得了很多廉价资金,显然它们有 4000 亿美元的资产负债表,产生了 1.5% 的 GDP 现金流,预计将花费 1 万亿美元在资本支出上。所以它们确实有很大的火力去追求 Michael 所说的规模法则。大问题是,是否有足够的收入来证明持续投资的合理性?每一代模型带来的最大价值捕获,以及它们能否从企业和初创公司中获得下一个 1000 亿的收入,因为这些公司使用并依赖于它们的模型。如果不能,人们就会停止为它们提供资金,Google、Amazon 和 Facebook 都会受到严重打击,它们将无法建立那些 1000 亿的集群。 我认为这里的金融限制是关键问题。所以问题在于这些集中模型的资本支出能否得到回报。这涉及到大型基础模型的最终护城河是什么,以及这些分布式系统能多快赶上或这些分布式训练运行能多快赶上,还有在非常高端领域的价值捕获有多少与被商品化的部分相比。我想听听 Ben 和 Travis 对此问题的看法,因为对我来说,这似乎是我们正在处理的算法,即这些大规模前期投资的回报能带它们走多远,涉及到规模法则的问题。 经济价值捕捉与分配 Travis Good:我可以快速回答。我认为这是一个雪球模型。我曾向你们大多数人表达过我的观点,即我认为 AI 是一种经济替代技术。基本上,AI 模型越强大,它们替代的经济工作越多,它们就越有价值。回到 PD 的观点,问题是是否会有一个时刻,人们认为这个雪球不会继续滚动下去,人们会胆怯,不愿意再投入更多资本支出,因为他们认为已经达到了回报递减的点。我实际上认为这个时刻可能是当我们遇到真正的对齐问题时,因为我们实际上没有一个好的机器学习理论来解决这些问题。 然后我想评论一下开放和封闭源代码的事情。我实际上认为在一个安全研究是公开的世界中,AI 的经济价值会更高。因为这减少了任何人对安全研究的现状不知情的风险,也减少了国家和机构没有采取正确保护措施的风险。让这些信息尽可能广泛地传播对每个人都有利。 Michael Rinko:那么我们能否将你刚才所说的与核弹竞赛相比?你会希望当时的基础研究是开源的、广泛传播的吗?当时有一种观点,甚至一些顶级科学家认为,如果每个人都知道最新的研究状态,那么这会像是一种相互确保摧毁的局面,我们都会拥有同样的东西,都会同时把枪口对准对方,这会带来最安全的世界。而另一方则认为我们需要先行一步,我们需要先到达终点,然后把大枪对准对方,这样无论对方做什么,我们都能取得胜利。我实际上认为这是一个很好的类比,它可能不是完美的,但在目前的 AGI 竞赛中,这是一个很好的对比。 Travis Good:我很高兴你问这个问题,因为我实际上认为这是一个绝对错误的类比。让我解释一下。首先,我们需要从历史上看实际发生了什么。我们认为我们有一条通往军事优势和统治地位的路线,但现实是这些技术几乎立即泄露了。我们可能有这种完全改变权力平衡的愿望,但现实却重新建立了权力平衡。所以我会问那些追求这种策略的人,是否真的认为这是一个现实的目标。 其次,机器学习研究的性质与物理研究如此根本不同,以至于这个类比完全站不住脚。具体来说,我认为有两种范式可以看:一种是机构范式,即你可以控制一小部分合格的科学家,这可以由国家控制。另一种是网络连接范式,即你有一个极其广泛分布的知识基础,进入这个领域所需的技能门槛相对较低,只要你给他们计算资源,世界各地有很多人都可以参与。因此,从网络分析的角度来看,试图在机器学习上实施机构模型的想法是完全可笑的。如果你遵循这种政策,你实际上是在将所有美国的机器学习研究锁定三年,这对公众获取经济利益是巨大的损失,然后四年后,或者甚至更快,这些技术会被外国政府偷走。所以你会进行很多安全措施,但不会带来任何好处。 Ben Fielding:仅从核武器的例子来看,我们最终达到了相互确保摧毁的状态。你假设开放的方式会不利,但实际上如果是开放的,我们可能会在没有使用这些技术的情况下实现相互确保摧毁。是否需要有一个证明点来展示这一优势?或者我们是否可以跳过中间的阶段,直接达到相互确保摧毁的状态,而不需要经历对世界非常有害的中间过程? Michael Rinko:我认为你们都提出了很好的观点。我同意核武器的出现直接促成了长期和平时期。自二战以来,我们避免了大规模战争,很大程度上是因为现在可以摧毁整个国家。我认为这是一个有用的威慑力量,现在多方拥有这种力量。你可以说,如果每个人都有 AGI,那么这将带来最安全的世界。但我认为这不是一个教训。如果我们回到核武器,如果你把这种逻辑延伸出去,你希望每个国家都有核武器吗?你希望哈马斯现在有核武器吗?你希望阿富汗的塔利班拥有核武器吗? 历史上有许多危险时刻,例如有一个俄罗斯潜艇上的军官,他认为第三次世界大战已经爆发,他有权决定是否向美国发射核弹。他决定不发射。这只是一个人,但如果你把这种能力扩展到许多人,按下按钮的几率就会增加。所以,我认为核武器的一个救赎之处在于它们真的很难制造。我同意你的观点,Travis,这些模型并不难制造。所以我认为这个类比在某些方面是有问题的,但总体来说,你仍然希望限制这些超级强大的、潜在破坏性的技术,只让少数人掌握。 Travis Good:我同意你的观点。 Pondering Durian:或者你只需要确保自己保持领先,对吧?无论是军事能力还是网络能力,总是会有潜在的攻击向量,但如果你能保持领先一步,那么你就能应对这些威胁。比如哈马斯发射了那些火箭,但以色列有铁穹防御系统。威胁模型在不断演变,但防御也在不断进步。此外,我认为世界的富裕程度与战争意愿之间存在相关性。富裕的人通常对战争或破坏的兴趣较小。富裕的民主国家之间从未发生过战争。这既有意识形态的原因,也有富裕的原因。如果 AI 的好处能够有效地渗透到全球经济中,并且这些好处不只归于微软的股东,那么我们实际上可以有一个很好的结果,但这确实是一个非常难以把握的平衡点。我同意存在许多威胁,情况可能会完全出错,但我也认为,总体来说,让这种技术在良好的管理下传播是最优的结果。 Ben Fielding:听起来我们都同意这一点,因为在这种观点下,国家最优的做法就是重金投资这一领域,与其他国家一起保持领先。国家需要通过资助技术和努力来保持领先,而不是通过拉后腿。这通常是国防研究的做法,投入大量资金探索下一代前沿技术,这通常是有益的。 Michael Rinko:现在商业领域远远领先于政府,这种情况如何运作? Travis Good:这里有两件事,我认为我们需要理清。对于我来说,这也是为什么我在谈论 AGI 时总是有点激动,因为我认为 AGI 主要是一个经济范式,是劳动力替代技术。它有一些军事应用。 Michael Rinko:但军事是世界上最大的「公司」。他们雇用了比任何公司更多的人,所以显然存在双重用途。 Travis Good:我同意存在双重用途,但每当你考虑关闭这样的技术时,你必须考虑其硬实力和软实力的方面。让我给你设想一个场景,让你思考一下其影响。如果我们完全锁定 AGI,只让军方使用,否认所有人经济利益,我们实际上会失去在经济上的竞争力。我们的军事实力取决于我们的经济能力。如果我们债务缠身,或者在利用 AGI 技术上远远落后于其他国家,我们实际上会输掉任何战争。最终,一个同时研究军事应用并在更广泛经济中部署的国家会胜出。 Michael Rinko:我同意这个结论。我也许对 AI 或 AGI 有不同的看法,对我来说,我们在构建的是智能,智能是所有事物的输入。如果你有无限的智能,就像电力一样,你不知道你会用它做什么,它只是一种世界上的力量。认为 AI 不会有双重用途是疯狂的,政府肯定会对此感兴趣,而且已经在关注。回到 PD 最初的问题,关于这些模型的收入能否赶上支出,我认为更重要的是关注能力是否会达到平台期。只要这些前沿实验室,比如 OpenAI,每年都能推出更先进的模型,炒作继续,收入就会赶上。我们已经看到,有报道称 OpenAI 现在的年收入达到了 20-30 亿美元,这是一个前所未有的增长。但最终,政府会介入并直接资助这些实验室,因为这将成为一个国家安全问题。政府不会关注收入,而是关注模型的能力,因为这是国家安全的角度。 Pondering Durian:但这是一个不同的论点。我们讨论的是市场力量。如果你认为政府会介入,那么整个动态就会改变,资本市场的动态实际上会被抛到一边。你可以向任何用户征税,并将其用于军事应用。但我的观点是,这不是关于能力的问题,而是关于相对于更便宜的选择的能力问题。如果我是投资者,我不会继续向 OpenAI 和微软投入 1000 亿、1 万亿去追求下一代模型。如果他们没有捕获任何价值,那么投资者不会这样做。所以我的观点是,能力问题不是绝对的,而是相对的。与其他所有人的能力相比,以及实现这些能力所需的成本问题。 Ben Fielding:我认为护城河的问题是很多大型 AI 公司面临的一个重要问题。我们看着 OpenAI 试图找出他们的护城河,他们似乎仍在摸索中。是这个生态系统吗?是 ChatGPT 吗?很可能不是。是他们建立生态系统的能力吗?可能是。我认为这是一个推动盈利公司的战略角度走向开放的机制,这也是 Meta 在做的事情。 Meta 认识到他们的护城河是他们将这些模型分发给用户的能力。他们能够将这些模型应用于实际的现实世界中,而不仅仅是试图从模型本身赚钱。所以他们驱动开源模型,不是出于利他主义,而是为了实际的战略收益。Meta 通过将模型商品化来补充他们的产品,即使他们是唯一拥有社交网络分发能力的人。这推动了技术本身的开放,但也允许 Meta 继续捕获其他资源。 我们看到的趋势是,真正重要的是实际的分发能力。OpenAI 将试图提供利用智能进行分发的软件,但很快,所有拥有分发能力的公司都会想要脱离 OpenAI。如果技术本身没有真正的护城河,他们会被驱使这样做。赚的钱越多,他们就越会想把这些带入内部。而阻止这一切发生的,除了捕获底层资源,比如计算资源或监管角度之外,似乎并不多。 Pondering Durian:Ben,我觉得你之前说的一点我很同意,也很正确,即这是一个分发游戏。不幸的现实是,这五六家公司已经在分发上赢了。我们实际上在思考如何提供一个基础设施层。但如果你认为分发是最终的护城河,那么你是否实际上在同意我的观点? Travis Good:我有一个答案,如果你不介意,Ben。我认为我们必须引入一个社会摩擦的模型。你必须考虑当 OpenAI 采取行动时会发生什么。以医疗编码员为例,他们听医生的记录,查看文件,然后找出适当的保险编码。这是一项乏味的工作,但如果你的工作效率高,能赚很多钱。假设 OpenAI 进入并突然将整个医疗编码领域收购了,这是可能的,他们有很好的模型,无限关注的模型可能比人更擅长这项工作。那么,当整个职业消失时,社会会发生什么?人们会对这些公司非常敌视,这会损害它们的分发。人们会寻找替代品,因为每个人都在考虑自己的护城河,他们会开始计算,如果我把所有的数据和工作流程都交给 OpenAI,明天我的商业模式可能会变成他们的商业模式。 Pondering Durian:但 Travis,每个人仍然使用 Amazon,每个人仍然使用 Facebook,每个人仍然使用 Google。这就是问题所在。我同意你的观点,但消费者不在乎,因为 Amazon 给他们提供了最便宜的产品。 Ben Fielding:你的意思是创新者的窘境作为一个概念已经不存在了吗?因为这意味着这些公司将永远保持领先地位。 Pondering Durian:不,我只是不清楚系统如何改变。目前看来,AI 似乎只是让现有公司的产品和分发更好,Meta 可以增强他们的产品,Google 也可以增强他们的产品。 Travis Good:让我从不同的角度来谈谈这个问题。想象一下,现在的公司非常低效,因为它们是为了组织人类而配置的。但未来的公司将被配置为组织代理,即小团队和大量代理。因此,有一个论点是,大型玩家实际上是过时的。如果将 AI 技术赋予那些能够正确组织的较小、更灵活的公司,他们将胜出。 Pondering Durian:我完全同意,这是一个非常有趣的范式。但事实是那些最终更灵活的玩家赢得了胜利吗?还是说大公司拥有现有的现金流和分发能力,它们会大幅缩减员工。因此,这可能就是创新者的窘境,缩减员工规模或减少员工数量是不可行的,所以新玩家会出现,带来创造力和代理人以及人类的结合。但现实中,我认为你会遇到一些社会约束,比如价值的捕获和分配。 Michael Rinko:我认为我们现在在进行一段非常有趣的讨论。我认为重要的是要思考谁能持续推动这个飞轮,谁能不断获取资金并投入计算,支付顶级研究人员并保持飞轮运转。我有一些想法,想听听你们的看法。Ben,我认为 Meta 的例子非常有趣,我认为 Meta 实际上是一个很好的例子,说明收入的重要性。Meta 投入大量资金训练这些模型,然后免费赠送。他们花费了数百万美元,然后免费给你使用,不收取一分钱。我认为在某个节点,如果你使用 API 达到一定次数,他们会收费,但一开始是完全免费的。他们现在没有从中赚到任何钱。 Pondering Durian:但 Michael,这不是慈善,他们这样做是因为他们不想依赖 Google 和 Apple。Mark 已经被 ATT 烧过一次,他不想再经历那样的事情。 Michael Rinko:我理解这个赌注,但这是一个大赌注,因为他们还没有从中赚到任何钱。 Ben Fielding:这通过 API 应用于 Meta 的产品中。 去中心化 AI 和加密的潜在颠覆 Pondering Durian:是的,但他们如何从中赚钱?Michael,你实际上在支持我的观点,模型正在被商品化。如果 Meta 投入数百亿美元,那么这对 OpenAI 的商业模式意味着什么? Michael Rinko:这正是我的观点,我认为他们在玩不同的游戏。Meta 在免费提供模型,OpenAI 在构建领先的封闭式前沿模型。Meta 免费提供模型,OpenAI 可以去药物研发实验室说,我们将为你们运行一个月的推理来合成某种药物,我们有世界上最好的模型,具有最佳推理能力、X、Y 和 Z 功能,最具代理能力,无论时下的流行是什么。那个药物研发公司会支付 OpenAI 任何要求的费用。这是一个完全不同的商业模式,而不是通过社交媒体平台卖广告来弥补成本。 Pondering Durian:我同意,但这取决于 OpenAI 能否继续领先于 Meta 和所有其他玩家。如果 Meta 也投入 200 亿美元进行下一代研发,并从 OpenAI 那里雇佣大量研究人员,然后免费提供这些模型,那么 OpenAI 想要收费的任何东西都会被抛到一边。所以,我不是说 OpenAI 不能成为一个伟大的企业,我只是说他们确实有商品化的风险,这取决于他们是否能继续保持领先。 Michael Rinko:他们两年前训练了 GPT-4,它至今仍是世界上最强大的模型之一。所以在我看来,他们领先了两年。 Travis Good:我对此有点异议。GPT-4 有很多次发布,实际上,当前的模型已经超过了最初发布的 GPT-4。这就是封闭模型的问题所在。这些公司声称它们是同一个模型,但实际上它们并不是,而且可以在不通知的情况下进行更改。所以如果你依赖这些模型保持不变,你会有麻烦。 Michael Rinko:我的理解是,GPT-4 在两年前完成了预训练,基本上读完了互联网上的所有内容。从那时起,他们一直在进行迭代后训练,提高了性能。但对我来说,令人惊讶的是,基础模型在两年前就已经完成了训练,并且至今仍能与当今的最先进模型竞争,这表明他们确实领先。 Pondering Durian:我同意这一点。我的观点是,除了人才和计算资源的获取之外,没有其他天然的护城河。在 Web 2.0 时代,你可以从网络效应中受益,即使你的执行力很差,比如 Twitter,你仍然会不断获得用户并拥有强大的动力法则。但你所描述的世界将要求 OpenAI 继续以超级激进的方式投资,以保持其领先地位,这既包括他们的人才,也包括他们的计算资源,这也是为什么他们不得不去找微软和苹果做交易。所以,我认为他们可以保持领先,但这比 Web 2.0 时代要困难得多,因为那时有一些天然的护城河。 Ben Fielding:我觉得这归结于具体的用例。我们谈论分发是护城河,但分发不仅仅是用户的访问,还包括具体的用例。我们谈到 OpenAI,他们可以将 GPT-4 应用于药物发现领域。但实际上,人们多年来一直在将机器学习应用于药物发现领域。具体从事这项工作的公司,GPT-4 要超过这些专门为药物发现设计模型的公司的想法是不现实的。这显示了它是一个很好的营销工具,意味着 OpenAI 可能会获得一些合同。但例如 Isomorphic Labs,Demis 专门为此进行的尝试,可能更有可能直接针对药物发现用例,而不是 OpenAI 这种似乎想涉足所有潜在用例的公司,他们会被那些专门针对这些市场的公司击败。 Michael Rinko:我觉得这是一个很有趣的问题。你们怎么看待未来人工智能的发展?最通用的智能形式会赢吗?还是像 Ben 所说的,专注于特定用例的更小、更专门的模型在这些特定用例中获胜,而通用模型在这些特定领域表现一般,专用模型在特定事情上表现非常好? 加密在 AI 中的独特优势 Ben Fielding:我持有一种相当怀疑的观点。归根结底,这只是一个可以在特定领域应用的技术,就像一个数据访问工具。你可以把模型看作是一种极其高效的信息压缩方式,它在许多领域都非常有效,并且可以在语言模型和通用智能等方面展现出逻辑功能。 在我看来,通用智能部分实际上是其下的一个路由机制。这只是一个更好的与世界数据交互的方式。我认为你可以在很多不同的方式中应用这些技术,不必非要有一个通用智能的路由机制来实现每个用例。类似于过去的技术可以在许多不同的领域以多种不同的方式应用。 但是我认为我们目前关注的重点是,人们认为必须有一个具有类人脑的基础模型才能实现良好的效果。我并不这么认为。回顾机器学习的历史,你会发现它在不同的领域和不同的方式中应用。我认为我们目前对 Transformer 模型的关注只是暂时的,一旦我们发现它们并不能魔法般地解决所有问题,我们将会再次回到多样化的技术应用中。 Travis Good:我同意你说的很多观点,我也认为这都与工具使用有关。我认为,一个非常好的基础模型,结合出色的工具使用技能,将会赢得一切。原因是它可以应用所有的专业模型来服务于更大的目标。因此,我认为它在这种方式下会吸收它们,但这并不与任何一个分支点矛盾。我同意,专业模型在许多用例中可能会有优势,因为你无法为某些特定情况进行训练或微调。例如,GPT-5 不会是 AlphaFold。 Tommy:各位,我有个问题。我们现在讨论的是 OpenAI 与 Meta 的竞争,但我们还没有明确指出加密 AI 如何在这里获胜或者可能获胜。我想花 10 到 15 分钟来讨论一下这个问题。我们谈到了电力和房产的问题,比如数据中心空间不足或者电力不够,或者如 Pondering Durian 所说,资金与收入和预期输出不匹配,这可能会对中心化 AI 造成致命打击。我希望我们能讨论一下加密 AI 可能获胜的方式,如果你们认为它无法获胜,那也没关系,但我想花点时间在这个问题上。PD,我们可以从你开始,然后依次讨论。 Pondering Durian:抱歉,我刚才断线了。回到我们之前的讨论,我觉得颠覆通常来自边缘。去中心化 AI 提供了一些闭源 AI 永远无法复制的能力。今天的性能可能很强,因为他们采用了垂直整合的扩展方法,拥有专有数据和大量计算资源,因为他们从第一代互联网获得了垄断现金流。我认为加密提供了一个更开放、透明的层,其他人可以在此基础上构建。如果你重视透明性、可组合性和潜在的应用生态系统,你可以验证底层模型和数据集。那么随着去中心化计算和推理性能的提高,你会看到越来越多的人想要加入这个生态系统。因此,我认为这是一个经典的颠覆框架,有一个解决方案在一个方向上快速前进,但也有一些其他优势,由于其独特的特性,边缘客户今天正在使用,并且随着时间的推移性能会提高。如果性能达到可比程度,它将提供更优的解决方案。 这是我的简短总结,很想听听 Ben 和 Travis 的看法。 Ben Fielding:是的,我想直接回答这个问题,这会是一个非常有偏见的回答,毕竟我们在 Gensyn 所做的事情和去中心化技术密切相关。 但总的来说,我认为去中心化和去中心化技术的最大力量在于它能够建立很难被中介化、寻租和捕获的价值流。我们讨论了很多支撑机器学习的资源,我们把它们视为这些资源的几大支柱。每一个都有不同的动态,是否已经开放,或者是否可能被大公司捕获,然后禁止其他人访问。加密技术使我们能够在这些资源上创建保持可信开放的市场,正是通过加密的机制。 显然,我们很多时候都在考虑计算资源,这是我们构建的领域。但如果你考虑未来的市场,如果我们能够创造一种方式,让资源的实际使用者的需求直接流向拥有和提供该资源的人,那么我们可以在这个资源上创建一个更高竞争性、更流动的市场,这最终会像比特币那样,在全球范围内代理能源市场。你可以以类似的方式将计算资源作为 AI 的底层资源。如果我有一个特别便宜的电力来源,甚至许多绿色电力也特别便宜,因为没有办法有效利用它们,如果我可以购买一个 GPU,把它插进去,并立即访问 GPU 计算的需求端,我会这样做,因为我会因此获得收益。现在我无法做到这一点,因为唯一的方式是成为云服务提供商。而云服务提供商本身并不鼓励我成为云服务提供商。这种循环继续下去,他们最终买下了所有的计算资源,在其上寻租,并设定寡头垄断的价格。因此,这使我们能够保持市场的流动性,不允许它被集中提供商捕获。我认为你可以对 ML 的所有底层资源这样做。最终,你会在实际应用阶段看到更多的竞争,我认为我们都同意这可能是护城河所在之处。它是向用户提供价值,而不是在某个资源中。 Tommy:Ben,快速提一个问题,在 Travis 和 Mike 回答之前。我想确认一下你的观点,如果我有理解错误,请纠正我。你的观点是,超大规模数据中心的资金和它们构建的产品的收入或结果并不那么可持续,我们没有得到我们想要的结果。如果我们能够建立一个连接所有 GPU 的元网络,即最终像电力一样,任何人都可以访问它,从而创建一个最大表面积来创建最有价值的 AI 应用或代理,而不是一个中心化公司选择试验项目并在全面 AGI 上竞争。这是一个恰当的总结吗? Ben Fielding:在某种程度上,是的。我认为,当谈到规模问题时,规模是否是决定胜负的因素,我们已经讨论过了。这有点进入了辩论的范畴。但最终,你可以这样想:人类使用资源的最小提取方式是什么?使用电力并通过 GPU 将电力转化为知识,这是我们可以做到的最小提取方式,没有太多的中间环节,导致有人在此过程中提取价值。我认为加密和去中心化为我们提供了创建一个绝对最小提取系统的轨道。唯一在此过程中提取价值的人,是那些真正提供价值的人。 例如,有人创建了一个模型接口。如果这个接口与许多其他接口竞争,那么这个人可以获得利润,但他们的利润是在竞争中达到一个公平市场价格的。这种情况在链条的多个阶段发生,一直到你获取电力的阶段。目前我们处于这样的情况:由于计算资源是有限的,它不是商品,而是有限资源,被提供商捕获,他们能够提取巨大的价值。但加密为我们提供了不发生这种情况的轨道。我认为,无论 AI 走向何方,这对世界都是净好处。无论扩展是否继续成为最佳方案,因为资源的一般使用仍然是最有效的方式。没有盈利动机的协议只需要维持自己。所以,如果它能维持自己,并能创建最大的需求使用面,它应该胜过任何必须从中盈利的人。 Travis Good:我是 Nassim Taleb 的忠实粉丝,我认为中心化结构是脆弱的。它们的脆弱性在于需要信任。如果我是一个中型企业,我使用 ChatGPT 提供客户服务功能,OpenAI 明天可能会改变模型的行为,这将改变我整个客户服务部门的行为。这是你作为应用程序用户必须放弃的巨大控制权。更不用说,如果我得罪了 OpenAI,他们可以关闭我整个客户服务部门。我必须对这个实体有很大的信任,信任它不会被黑,不会恶意行为,不会任意行为。我们已经看到 Google 会无缘无故地关闭人们的 Gmail 账户,人们会因此失去多年积累的记忆和生活。因此,我认为去中心化结构提供了鲁棒性和反脆弱性,因为它们可以是无信任的。如果我可以通过 Ambient Network 获得一个非常好的模型,这个模型是公开训练的,具有已知属性,并且行为可预测,我可以信任这个模型会继续在网络上运行,而不会被集中结构的任意行为中断。只要有经济激励,这个模型就会继续运行。这为我提供了更好的保障,这是加密 AI 的巨大优势。它能够让我不必担心特定组织的实施和结构,而获得有趣的能力。这种可组合性对未来经济的发展至关重要。 Michael Rinko:你们都提出了非常有趣的观点。我对加密 AI 的看法是,当我写报告时,我试图思考加密能为 AI 解决哪些其他地方无法解决的问题。我认为你们都提到了一些关键点。对我来说,有三点。第一,加密是无信任的。如果你是一个 AI 代理,你会将你的资本交给摩根大通,还是会信任你自己控制的数字钱包,一个在区块链上的公私钥?在加密中你不必信任任何人,我认为这对 AI 来说是一个很有吸引力的特性。对人类来说,这可能是一个可怕的特性,因为没有人可以打电话求助。但我认为对 AI 来说,这将是一个非常吸引人的特性。第二,加密是确定性的。当你在加密中执行一段代码时,你确切知道这段代码会做什么,没有任何模糊性。而在现实世界中,当我打电话给银行汇款时,我不知道汇款会在今天、明天还是下个月完成。我们都经历过这种情况。现实世界是随机的,充满不确定性。我的赌注是 AI 不会喜欢这种不确定性,它会更喜欢确定性执行。加密提供了这一点。第三,AI 可以通过加密实现超级资本主义。一个愚蠢但可能最好的例子是 Meme 币。加密可以将任何东西金融化,并且确实可以做到这一点。我认为这是一个独特的特性,AI 可以利用这一点来积累资源。所以,我认为基于这些原因,我对加密和 AI 的结合非常看好,我认为我们只是刚刚开始发现其中的价值所在。 Pondering Durian:这些观点都非常棒,Michael 说得很好。我还想补充一点,我在文章中提到过,现有机构基本上是工业时代的产物,因此在协议采用方面存在许多限制。如果经济中更多的部分转向代理或基于代理的网络,那么我们正在构建的许多基础设施将变得更加有意义。如今,企业与协议互动的过程中存在许多摩擦,特别是那些大型法律部门的企业,他们总是更保守,更倾向于选择 AWS 的服务水平协议或合同,因为这是他们所熟悉的世界运行方式。但如果未来我们将更多的决策和智能外包出去,我认为这些决策者会开始使用更多可组合的、无信任的基础设施,正如之前提到的观点。所以,如果在未来三到五年内,我们开始见证这一转变,那么这对 Web3 基础设施和应用程序来说将是非常有利的。因为这确实需要网络的双方共同发展,我们只是刚刚开始看到需求侧真正成熟起来,以一种对过去五六年构建的 Web3 基础设施有意义的方式发展。 Ben Fielding:我认为这里有一个非常有趣的类比,就是 Web3 和 AI 的类比,它们基本上都在用代码成本取代人工成本。Web3 的出现,用智能合约的执行取代了法律合同和人工信任机制等。这是一种用人力更便宜的方式来做事情的例子。正如你所说,AI 也是如此,它用更复杂的代码取代了昂贵的人工成本。因此,两者的结合就是最大限度地用代码取代昂贵的人工成本。然后你会问,最后剩下的是什么?就是信任部分,在现实世界中,人们确实重视人类信任部分,他们愿意为此付出更多。这就是为什么企业和旧有的购买 IBM 产品的原因。最终,你会发现你购买 AWS 产品是因为你愿意为人类部分支付额外费用。这已经被明确地切割和高度金融化,现在你知道自己在支付什么。它不再是像传统云世界那样的模糊化购买,而是一个非常明确的购买行为。我认为我们可以从这个角度进一步探讨未来 AI 的发展,它会是对人类体验的更加明确的金融化,我们的价值观会发生变化,我们愿意为明确的人类体验支付更多费用,甚至是非理性地选择那些对我们来说最适合的东西,但仅仅因为我们实际重视它。比如我想买这个手工制作的东西,因为它是由人手工制作的。我想买这个云提供商的产品,因为那里有一个人。尽管实际上这个有自动结算和 AI 运行的加密产品对我更好,它更便宜、更高效,能带来更好的结果,但我会选择其他东西,因为我是人类,这是我想购买的东西。 Michael Rinko:Ben,我可以问你一个问题吗?我认为你的见解非常有趣。一个常见的看法是,去中心化计算或当前 AI 领域的某些东西去中心化后会更便宜,这是一个卖点。但我认为反对的观点是,正如你刚才所说的,成本并不是这些公司的首要考虑,尤其是当你谈论的是世界上最有价值的公司时,他们会花费额外的钱来避免麻烦。如果有现有的关系存在,他们也会这样做。你认为是否存在一个临界点,这些公司可以节省足够多的钱以至于成本实际上成为主要驱动因素?或者这些加密 AI 公司只是声誉问题,需要几年时间才能建立起这些 GPU 提供商与这些公司的声誉和联系?你认为这种情况会如何发展?是否存在一个明显的临界点,使得竞争动态在中心化和去中心化的产品之间发生变化? Ben Fielding:这其实就是任何新技术中经典的摩擦与收益权衡问题。你需要问自己,是否愿意为了潜在的好处,比如节约成本、扩大规模或增加访问量,而经历采用新技术的摩擦。我们必须经历这种转变:一些人必须愿意经历额外的摩擦,才能获得这些潜在的好处。一旦你通过了最初的摩擦,就可以降低这种摩擦,而不会有巨大的转换成本。 但是,目前还没有人真正解决这个权衡。我们看到很多关于加密 AI 的投机性项目,很多人说将来会有巨大的好处,很多人也在赌这个未来。但显然没有人真正捕捉到现实世界的价值需求,没有很多实际用例可以说这是在为 Web2 带来实际价值。我认为,这就是需要发生的事情。坦率地说,我认为我们需要专注于建立这些技术,使它们在具体的实际用例中更好,而不是专注于激励和启动工作,这在我们看来只是分散注意力的事情。 当然,在某些时候,你需要做一些激励措施。如果你在建立一个市场,你需要做一些启动工作,但这不是主要工作。主要工作是创造一个真正有价值的产品。我认为我们经历了一段分心的时期,但幕后有很多人正在建立这些产品。一旦这些产品发布,我们将看到一个激增,但它必须跨越摩擦与成本的障碍。 Pondering Durian:但我认为你确实需要网络流动性。加密实际上是关于网络的。因此,你需要需求方和供应方,它们需要同时出现。为了创造那种体验,起步时建立市场总是非常困难的。供应方不会在看到需求方之前加速增长。我们仍然有非常高摩擦的用户入门体验。所以我同意专注于产品非常重要,但很多好处只有在有一个临界点时才能实现,不是 50 亿,但至少有足够的加密钱包数量,供应方才会满足需求方。因为现在用户数量仍然非常有限。所以我确实认为网络流动性非常重要。 Travis Good:我只是想插句话,我认为这是一个非常重要的观点。PD,你知道,如果我们将加密与 AI 结合起来,实际上就是在决策支持中引入了可编程经济。我认为此前加密在决策支持方面一直是缺乏的。大型语言模型能够摄取大量信息并基于所有输入做出相对简单的选择,这是以前无法想象的事情。如果我试图在以太坊上编写一个合同,以解析新闻故事并决定情感是积极还是消极,我需要做很多黑客工作,更不用说试图写一个一致且合理的摘要,让我可以做出经济决策。所以,我们实际上是在引入一个能力和推理水平,使得基础经济 API 比以前更具吸引力。 Ben Fielding:就我们讨论的这种市场启动问题来说,的确在某个阶段你会需要一些启动工作。我并不是说你不需要平衡供需关系,但我认为你的使用案例会极大地影响你需要做多少启动工作。比如,以 Helium 为例,他们提供的网络覆盖受到电信领域的 Metcalfe 定律的影响,这意味着这个网络只有在大规模时才有价值,因此你必须非常大力地启动供应侧,才能为用户提供任何价值。 但也有一些使用案例并不受此限制。比如,访问 GPU 计算资源,如果我有一块 GPU 和一个需要在这块 GPU 上训练模型的用户,我就可以进行交易,从这个网络中获取现实世界的价值。是的,这还不是最大规模,但你可以逐步扩大规模,而不需要经历大规模启动过程。我认为我们现在处于一个奇怪的境地,GPU 网络的竞争都在争夺 GPU 的数量,但没有人真正使用这些 GPU,需求侧的使用在哪里? 所以我们陷入了一个收集尽可能多 GPU 的误区,这是错误的指标,正确的指标是实际使用,获取用户将任务发送到设备,并获得结果。如果这在小规模上实现,我认为这实际上更好,而不是单方面地大量启动供应侧,却无法服务于需求侧。这只有在供应是一种线性价值商品的情况下才有效。然而,幸运的是,ML 计算恰好是这种情况之一。我认为,如果你处于网络带宽模式中,你就必须找到如何启动供应侧的方法,这就是你必须玩的游戏,你必须确保在短时间内需求侧能够接管,否则你不会赢。 Michael Rinko:你认为最近最有可能的需求来自哪里? Ben Fielding:去中心化计算网络。 Ben Fielding:我认为需求可能来自几个不同的领域。一方面是种子到 A 轮阶段的初创公司,它们目前无法访问云提供商资源,这是一种需求。还有一些是没有本地计算资源的个人用户,但他们希望微调模型,比如使用他们能够访问的开源模型,但无法获得计算资源进行训练。再进一步(但可能并不太远)是协作训练模型的需求。社区可以提出一种新型模型的想法,但无法获得计算资源,而现在他们可以获得这种资源。他们还可以利用 Web3 提供的各种工具,例如资金池和审计,集体激活这些资源,而不必信任某个单一方。这样,我们就能在计算网络、数据网络以及某种程度上的专家知识激励网络上进行更加协作的模型开发。这些网络中,人们可以提出模型并在未来因为提出了这个模型而获得奖励,因为区块链上有一个记录表明是他们创造并发布了这个模型。随着我们将价值归属逐渐回到资源或创意的起点,这会激励协作工作,而这正是飞轮效应真正启动的时刻。 在此之前,我们可以看到目前云提供商的简单使用,这通常要么因为定价过高,要么根本无法访问。 Travis Good:我认为随着区块链需要被视为具有竞争力的能力,你会看到这些网络的利用率大幅提升。 Ben Fielding:完全同意。当模型开始需要访问资源来触发自身和其他模型时,事情会变得指数级增长,因为你消除了与我们在其他领域讨论过的一样的「人类世界成本」。这时,你需要对这些资源的高度流动性访问,否则总是会受到资源市场效率的限制。所以,如果我们想要尽可能快地进步,就必须让这些市场尽可能高效。我完全同意,一旦模型实际上开始访问资源,整个情况就会发生根本变化,这让我感到非常兴奋。我认为那将是一个非常重大的时刻。 Michael Rinko:Travis,我很高兴你提到这一点,这是我希望我们在某个时候会谈到的。我不想显得太科幻,但我认为人们低估了这一点会发生的速度。我前几天看到一条推文,是一位 OpenAI 的研究员发的,他基本上说,如果你把 10 年前的人带到今天,告诉他们我们有一个可以实时进行任意语言翻译的程序,任何人都可以免费使用,全世界的人都可以免费使用,他们会有多惊讶。但他说,这种巨大的突破没有改变任何事情,世界还是那个世界。换句话说,NVIDIA 的股价上涨了很多,但除此之外,我们还是每天吃早餐,我还是在喝咖啡。所以我认为对于加密领域来说,我们也有过这些巨大的 AI 突破,但加密还是在继续,比特币现在甚至没有达到历史最高点。所以什么时候会有一个巨大的转折点?什么时候会出现指数级增长? 我目前的看法是,这个转折点会在我们拥有自主代理时到来。我认为对于大多数加密社区的人来说,为什么这些代理会更喜欢区块链而不是传统基础设施是显而易见的。我很难想象从零到一的过程会是什么样的,可能一开始没有任何代理,但突然之间可能会有无数的代理,数以百万计、数十亿计的智能实例,它们独立地参与经济活动。我认为其中很多都会发生在区块链上,这种潜力是巨大的。 Pondering Durian:我确实觉得这就像 USV 的图表,显示了基础设施和应用程序之间的关系。在某一点上,Altimeter 的那个人基本上说,如果你看云计算,有 4000 亿美元流向了应用程序,而大约有 500 亿美元流向了半导体公司。而在生成式 AI 领域,我们现在实际上是相反的情况,NVIDIA 积累了 750 亿美元,而 OpenAI 仅积累了 50 亿美元。我认为这种情况将会翻转。就像云计算一样,我们可以预期即将到来的应用程序爆发,大部分的价值捕获将开始向上流动到应用层。因此,我百分之百同意这个观点。 Travis Good:我认为这就是为什么这个生态系统如此重要的原因,也是为什么我非常高兴看到在这个领域中有各种不同的方法和健康竞争的原因。因为我认为所有这些方法都会有巨大的需求,这将是一场盛宴。我相信那些能够看到这一点的人将会得到丰厚的回报。我也希望正在收听的各位能够被我们的观点所打动,因为我希望你们也能从中获得经济上的回报。 原文链接 |