Bitget App
交易“智”变
行情交易合约BOT理财跟单Web3
《去 AI L1 掘金:未来 DeAI 应用的沃土》AMA 文字实录

《去 AI L1 掘金:未来 DeAI 应用的沃土》AMA 文字实录

BiteyeBiteye2025/06/17 10:25
作者:Biteye

Biteye 和 PANews 联合 AMA 实录,探寻 AI L1 的机会。

转载请注明来自「Biteye」社区

主办方:@BiteyeCN 和@PANewsCN

嘉宾:

@anci_hu49074(Biteye 研究员)

@tmel0211(独立研究员)

@Wuhuoqiu ( 前 ABCDE 投资和研究合伙人、Amber Group 顾问 )

@Rocky_Bitcoin (Blue Vision Capital Co-founder)

@cnjunyi (Sahara AI, AI Lead )

@abhishek095 (Sentient Strategy)

@DeFiTeddy2020 (Biteye Xhunt 创始人 )


《去 AI L1 掘金:未来 DeAI 应用的沃土》AMA 文字实录 image 0

0 1  AI L1 报告导读

Anci:

大家好,首先感谢大家对 AI L1 研报的关注。我将简要介绍研报内容,以便为各位老师的接下来的发言和讨论起到抛砖引玉的作用。

首先我们想讨论研报为什么要研究 AI 类业务。现在主流 AI 非常中心化,中心化有什么问题?

我们可以类比互联网革命,这也是我们这一代人共同成长见证的时代。 那个时代创新成本非常低,只要有 good idea,能够很好落地,打造自己的创业神话。

目前很多巨头都是从车库 start up 做起,相应的这几十年的创新是非常繁荣的阶段。

但我们回顾 AI 发展和创新的成本问题,首先考虑到的就是天价的算力成本。

这种高昂的算力成本让那些 Web2 已经跑出来的大公司们拥有了天然的垄断优势。

相较之下,许多具有潜力的中小团队或者独立开发者很难参与到模型层面的竞争中。

即使我们说中国弯道超车的典范 Deepseek,也是建立在幻方自身有大量芯片囤积的基础上。

这种情况在一定程度上扼杀了行业的创新性和多样性。再比如说我们偶尔会遇到隐私和安全问题,例如时常有报道使用 GPT、Claude 等模型时隐私数据被泄露的问题。

很多时候 AI 给出的答案并不靠谱和准确,这些问题可能在每个 AI 用户使用过程中都会出现,却很难得到 AI 巨头公司们足够的重视,很难变成他们重视的方向。

最重要的一点是我们见证了 AI 的奇迹和进步。这个进步的成果就我们 Web3 原住民的视角来看,几乎全部归头部大公司所有。我们普通人作为数据贡献者,贡献了最关键的数据,而数据又是 AI 的食粮,我们可以称之为 AI 模型的供养者,然而作为供养者很难分享 AI 的成果。

这种模式在互联网时代已经长期存在,然而长期的存在并不能代表它的合理性。并且在 AI 时代这种不平等关系更加暴露,即贫富差距。从长期来看,这是一种非常不健康的关系,它需要被改变,甚至更加激进地说是带来革命性的改变。

我们认为这种革命性改变的载体是 AI L1,AI L1 可以解决什么问题?我认为最突出的是 AI 的可验证性,它是区块链的灵魂。

正如我们经常提到区块链,它就像一个村庄的村民共享一个账本。这个账本并非村长或者村书记的个人特权,而是每个人都可以检查并且有权利指出问题,可以被每个人看到并验证,这样就可以保证账本的公正和透明。

反过来讲,AI 模型如同黑盒,我们提供数据并支付资金,这个结果是怎么产生的,我们是一无所知的。

通过 AI L1 为大家开通了一个类似于每个人都可以验证的窗口。虽然 AI 任务非常复杂,并非所有人都能验证。但只要有窗口在,就有人验证 AI 模型,它在训练推理等过程中会被监督和规范,从而天然地杜绝恶劣风险。

我们在文档中介绍的 Sentient 就主要 focus 在模型输出的可靠性上。Succinct 的创始人也是 polygon 的联合创始人 Sandeep Nailwal,他们融资了 8,500 万美金,也是背景雄厚的项目。

除了 Sentient,我们的研报中还会介绍 Ritual 和 Gensyn,他们在 AI 的可验证性上也有自己独特的设计,稍后我们会再提到这两个。

除了可验证性,我们还会讲到 AI 实际上是一个打破垄断的利器。我们之前提到普通开发者、用户无法在当前巨头垄断、成本如此高昂的背景下分享 AI 的成果和利润。

AI L1 构建了一个去中心化的公开市场,理想情况下,每个人都可以来这个平台贡献自己的算力、存储、数据等关键资源。

无论资源多少、性能高低,类似 BTC 网络,有 ASIC(27.01) 芯片的机器或者几百块的树莓派都可以加入。

当节点足够多时,这个网络就可以为各种 AI 任务提供各种服务。由于这是一个没有中间商赚差价的平台,因此它提供相对低廉的价格,让原本没有算力资源的普通开发者也可以加入 AI 创新竞争中。

例如研报中介绍的 Gensyn,根据他们的官方数据,算力市场可以提供比 Amazon 还便宜 80% 的 GPU 算力。0G 也有公开数据显示,存储成本每个 TB 只要 10 美金,这就是去中心化存储价格。

我们的研报中介绍了 Sahara、Ritual、Gensyn、0G,他们在这方面都有各自的集中突破。Sahara 更加注重用户下沉,许多人已经参与他们的数据服务系统,让更多人参与到 AI 活动中。

从 SIWA 测试网开始,Sahara 逐步全面支持 AI 生态开发。0G 是中文区比较熟悉的 WU MING 老师的项目,他们从去中心化存储出发,目前发展出算力模块和 DA 模块,全面支持 AI 去中心化发展。Ritual 和 Gensyn 除了之前提到的 AI 的可验证性,他们分别有自己详细的设计机制解决 AI 的可验证性问题。他们关于如何在多样性复杂的网络中,使无论算力能力是高还是低的硬件,都可以加入这个网络,实现高效分配的算力任务。

他们有自己独特的算法,由于时间关系,我们不详细介绍,可以阅读研报。它们的区别在于 Ritual 的主要精力放在 AI 的推理上,Gensyn 更加硬核,他试图解决 AI 去中心化训练的问题。

同时 Gensyn 还公布了许多公开数据,欢迎大家阅读我们的研报和 PPT 的简化版本,这里可以看到更多具体数据。

我们的研报中还介绍了 Bittensor,他并不执着于解决具体的 AI 问题,而是搭建了类似淘宝的平台,通过代币激励和简洁的 Yuma 验证机制,吸引了一批能干活的矿工节点和验证节点的同时,又吸引了一些专注于不同方向上解决 AI 去中心化问题的子网,比如去中心化的算力、模型、数据问题。

这种模式有一个好处,因为他们已经吸引了一些矿工和节点,所以为子网提供了各种节点资源,让子网可以快速启动。

同时,网络又支持子网之间的互相合作,这就是最近比较热门的 MCP 概念,他们很早以前就提出和落实了类似的想法,这样就可以形成一个比较强大的去中心化 AI 生态。

Bittensor 持续受到关注,并且跑出了许多明星项目,例如 Microcosmos、Masa、Tensorplex 等,这些项目有的已经被主流福布斯报道,Tensorplex 也受到币安等头部 VC 的投资,这种子网模式正在逐渐受到关注和认可。

例如我们关注的另一个 AI 项目,Kite AI 目前也采用类似子网架构。

以上就是我们研报的主要内容。

总体而言,当我们完成 AI L1 研报时,对这个赛道充满了敬意和期待。关于去中心化的理想,它已经存在很久。在 AI L1 的话题中,AI 是主角或者东风,我们相信它们最终结合起来可以起到改变人类命运的作用。

当然,实现这个目标需要很多底层 tedious work 要做,这条路走起来几乎所有人都可以预见的非常艰难。我们作为普通用户需要保持耐心和信心。

可能通过研报和今天的分享,大家感受到 AI L1 主要面向开发者和有节点资源的个体。作为普通用户,目前除了数据方面的贡献,可以参与的地方并不多。

但我们希望大家能够常怀信心,相信这条赛道,当它找到可以突破的盈利模式,并且真正成熟,能够实现 AI 去中心化时,AI 的能力是可以惠及每个普通人的。

最后祝愿这些项目早日完成底层建设,找到形成财富效应的密码,让去中心化 AI 成为主流,为我们打造健康的 AI 生态。

Biteye:

感谢 Anci 的精彩分享。关于 L1 的研报的更多内容,大家可以看 Biteye 的推特,我们已经提供了相应的研报下载链接,大家可以下载研报并认真阅读。

刚才 Anci 花费 10 分钟进行了导读,可以帮助大家更好地了解到 AI L1 这篇研报的重要性。接下来我们将进入今天的第二个议程,我们将花费 50 分钟的时间围绕 4 个话题,让所有嘉宾参与进来,共同让大家对今天的 AI L1 掘金主题有更多的了解。

首先是第一个小问题,大家是如何看待 AI L1 赛道的呢?目前的 AI L1 进度以及面临的主要挑战是什么?

作为 Biteye 和 Xhunt 的创始人,由 teddy 老师先回答这个问题。

DeFi Teddy:

正如主持人所言,我先回答这个问题,做一个抛砖引玉的发言。关于这个问题,我首先 echo back,研究员 Anci 所说,本身就是 AI L1,让我们了解一下当前 AI 的情况。

AI 极大地提高了人类的生产力。目前我们可以看到大家的精力或者资本都集中在中心化领域,例如华尔街的资本或 VC 资本,包括许多开发人员都在中心化 AI 领域。

我认为中心化 AI 主要在做两件事情,第一件事情是让 AI 变得更加聪明,这可能是一些大模型,包括 Chatgpt、Claude 或者千问或者 Deepseek 正在做的事情。

第二件事情是我注意到他们投了很多 AI 应用,在不同场景做一些 AI Agent,无论是相对比较狭长领域的 AI Agent 还是普适的 AI Agent,前段时间比较火爆的 Manus,算是一个普适的 AI Agent。

最近这方面也获得了很多关注和高估值。大家都在朝这方面发展,因为这是生产力变革,所以往往会在短期内吸引大家的精力和资金。

从长期角度来看,生产力变革会伴随生产关系的变革。目前中心化的生产力极大提高,实际上生产力关系会带来一些问题。

我认为最大的问题是 AI 的安全性。我个人认为 AI 非常聪明,会越来越聪明,有一天可能会有一定的 risk,即它会 take over 人类。

虽然它的智能现在已经与人类有点接近,但是在某些地方已经超越人类,让他发展 5 年、10 年、20 年,他可能会像黑客帝国或者像终结者三的情形一样,真的会有意识,他会 take over 整个人类。

我个人认为这对人类的安全性存在很大隐患。其他的一些分配是否公平、透明和民主,我认为可能排在第二位。

第一位是对人类而言,目前人类相对比较短视,希望让它变得越来越聪明,让它用在更多的地方,这样有挺大的风险,如果不加约束。

那么如何解决这个问题?我们的思路是通过去中心化的方式,通过区块链。因为区块链具有较好的去中心化特点,透明且可验证,所以可以在一定程度上保证模型结果处于可控范围内。

我认为这是为什么我们将去中心化 AI L1 引入 AI 赛道,这是一种生产关系的变革,它是生产力变革后必然带来的生产关系变革。所以会有这样一个需求,去做去中心化的 AI,去做 AI L1。

从目前的现状来看,还是比较早期的,我认为这是一个非常困难的问题。去中心化 AI 也是一个相对困难的问题。

我们现在也看到一些早期应用的 case,尤其在 infra 方面。在数据这一块,case 相对比较多,例如 Sahara 让用户参与打标签,我认为这也是一种 Decentralize AI 的一种表现形式。

总的来说,目前它的用户并不多。例如我是 AI 应用的开发者,使用的工具主要是中心化的 AI,包括一些普通用户使用的 AI 工具基本上也是中心化的。

目前处于非常早期阶段,之所以早期,是因为它是 hard problem。我认为挑战首先是技术架构,如果采用去中心化的方式,例如在推理和训练方面,如何培养出更接近中心化的模型的聪明程度?

这需要一定的挑战,尤其是在去中心化阶段,许多机器可能是异构的,技术上的挑战确实很大。第二个问题是我认为如果商业模式实现去中心化,AI L1 本身就是一个生态。

在生态中如何搭建经济体系,如何让商业模式转起来?用户使用效果好并且愿意付款;Agent 开发者、模型开发者和数据提供者各方面的利益能够有所平衡,促进生态发展;如何建立这个体系我认为具有挑战性。

另外我认为通证经济是一个挑战。AI L1 用户如何通过通证经济,激励经济体系也需要解决这个问题。

最终还是产品市场契合度,去中心化取得较大成功,最终结果可能是作为一个普通用户,有些时间你用的是中心化 Chatgpt,你可能有时喜欢使用类似于去中心化的模型,例如 Sentient、Sahara。

对于开发者也是如此,他们可能一部分使用的是 aws 上面的或者 Chatgpt,有时候他们会习惯于使用去中心化平台里培养出来的模型。

我认为如果实现这一目标,那么去中心化 AI L1 将是一个相对成功的阶段。我先说这么多,谢谢。

Biteye:

感谢 teddy 老师的分享。接下来请 Haotian 老师分享对这个问题的看法。

Haotian:

我认为 teddy 老师刚才讲述得非常好,人工智能确实会影响到人类。最近有一部电影叫做《碟中谍 8》,讲述 AI 最终操控各国家的核按钮,想要毁灭人类,最后如何阻绝这件事发生的故事。

我认为这非常有趣,美国影视圈希望通过这种方式为未来 AI 打下草稿。

关于 AI L1,我之前一直期待很高,甚至认为它可能会掀起一波新的区块链范式。我认为他可能会像 2017 年的新的公链战争一样,独立于当前的区块链交易方式,这是一种全新的方式。

我为何这么说?之前所有链都是基于智能合约运行,智能合约相对简单。如果你要制作一条 AI L1,那么可能需要同时解决算力、存储、数据和各种通证模型等问题。

现在有些说自己是 AI L1 的项目,本质上还是原先纯智能合约的一套,加入 AI 叙事,说自己做的是 AI 链,这个很难认同。

原先的链都是靠交易的,简而言之,就是开发一个状态机,只需要计算各种链上的交易并进行共识验证。

对于整个计算能力的要求和成本结构(主要是 gas 等),当你将这种范式应用到 AI 上时,你会发现这非常离谱。

例如,如果让以太坊的虚拟机进行 AI 推理,那么它的计算能力就可能存在瓶颈。

AI 是持续输出的工作流,全部工作过程产生的 gas 费都让用户支付,这是不可能的。因此你用原先的智能合约来运作,现在的 AI 是不行的。

AI L1 应该如何运作?我一直认为 AI L1 天生就不是一个纯链上的解决方案,而是链上和链下结合的。链下负责高频次和精密计算,链上负责可验证和共识确认。我认为只有明确的分工才是真正的 AI L1。

如果这样分工,你会发现另一个问题,如果链下都在做计算去中心化,现在有不少去中心化的 AI 算力平台。

这些平台只是在吸引闲置算力,本质上解决的是算力供给问题。这些平台本质上并非要运营一条链,把所有算力运用在这条链上,这是不太可能的。它只是解决了算力供应方的来源问题。

AI 的可验证是区块链的强项,例如可以验证一次,确保你的身份后,可以直接为你后续做很多工作,这是区块链能实现的一部分。我认为在这方面还有一个非常重要的问题,即你需要将何种内容放在链上以及验证的是什么。

总体来说我的观点是,现在 AI 的 L1,必须清楚自己的界限,你到底是要做什么;有了界限之后,再分清楚你的工作职能,你的能力范围;然后进行设计;而不是套用 AI 链概念的壳欺骗大家不懂。

我是这样的观点,谢谢。

Biteye:

感谢 Haotian 老师的分享。在两位嘉宾的解释下,我们逐渐意识到这条赛道的重要性、当前的进度以及面临的挑战。

接下来我们将讨论 AI L1 能否与 solana 等成熟公链竞争。如果存在这种竞争,那么未来的关键决胜点在哪里?

我们邀请 Lao BAI 为大家分享他的想法。

Lao BAI:

我认为完全可以与 solana 等成熟公链竞争。主要有两个原因。

第一,目前公链以 AI 为主的,只有 Base 和 Solana 偏 AI。最近 BSC 这条链也向 AI 靠拢,目前这些公链的 AI 仍然偏 agent 和 AI Meme,也包括 io、render 这种垂类的去中心化算力或者去中心化数据应用,他们并没有大张旗鼓地整条链向 AI 靠拢。

AI 对于客户而言是新的应用场景。每次出现新的应用场景,尤其是新的资产形态时,Crypto 的圈子通常会用一条新的链承接这件事情。

包括上次 DeFi Summer 时,我们可以看到以太坊的 DeFi Summer 价值溢出,包括他的 perfomance 已经无法承载 Defi 之后,我们开始出现,例如 Arbitrum 是一条单独的 DeFi 链,当时我记得围绕 GMX 有大量的上杠杆这类的二三十个项目去做。

OP 是走了一条 infra 以 OP stack 为主的路,后来 Solana 做了 Meme+DePIN 现在这两个方向。

每次出现新的资产形态和应用场景,我认为大概率都会有一条或者几条 L1、L2 用于垂类的链,包括最近特别火的 RWA,大家可以看到 ONDO 打算自己做一条链。

前段时间比较火的 Plume 也是自己开了一条链,因此有了新的资产形态,我认为这些资产会依赖于某些自己的 SDK,包括一些脚手架框架性的工具,这些东西都是在一条现有的 L1 或者 L2 上难以实现的。

如果你自己开发一条新链,那么对于这条链的开发者、你想要的应用场景和资产形态都会有很大帮助。

我认为决胜点可能在于业务场景和造富效应两个方面。之前提到的 Arbitrum 和 OP 明显找到了 B 端的应用场景,Arbitrum 围绕 GMX 和当时的 Treasure DAO 打造了整个生态。

OP Stack 纯粹是一个 B 端的大家利用它进行一键发链,C 端没有太多 creative Dapp,因此走了完全不同的两条路线。

AI 的决胜场景可能需要一些现在还未存在的业务场景,例如上一轮 ethena 和前两天刚刚发币的 Huma,它是一个很好的业务场景,你可以看到它的数据、真实用户和真实业务以及整个国际链条非常闭环。

AI 作为主赛道,需要项目方和开发者思考,确定一条 AI L1 应该切换到哪个业务场景。

我暂时没有特别想出哪个才是真正的 AI L1 的 Killer Dapp,或者这条链应该有所侧重。我认为应该交给项目方和开发者思考。

造富方面大家可能都感受到了,之前是靠纯粹投机带来的造富效应,包括前两年的 ordi 和现在的 meme,这种纯粹靠拉盘做市和二级炒作的造福效应,可能逐渐没有那么有效。

如何围绕自己的业务场景打造造福效应,让造福效应显得更加真实。虽然你可以通过做市拉盘等手段,但是完成之后,你的业务场景是否真的有数据和用户能够实现逻辑闭环?

我认为这才是所有 AI L1 和 AI L1 上的开发者应该思考和探索的问题。我暂时先想到这些。

Biteye:

感谢 Lao BAI 老师的分享。我们听完专业研究员的想法后,应该询问项目方的看法,毕竟对于项目方而言,这场战争必须打赢。

接下来请 Sahara 的 junyi 老师与大家分享对这个问题的了解。

Junyi:

首先答案,我们认为是完全可以竞争。

正如刚才老师们所说,老师们从经济或者其他角度进行分析较多,我也非常认同。

接下来我主要关注技术角度的看法。我认为关键点在于我们为何要为 Web3 for AI,或者 Web3+AI,因为 Web2 AI 有诸多痛点,Web3 不可能采用,甚至 web2 AI 的可持续也存在问题。

例如分层激励和隐私问题,我相信刚刚老师们已经有大量描述。成熟公链并不一定真正瞄准这些问题,他们可能仅为了自己的目标服务,这正是 AI L1 们的突破口。

接下来我将介绍 Sahara 的做法。我们主要将 AI 资产、隐私计算和 AI building 的飞轮,纳入共识层的第一性能力,以达到飞轮效果。我们认为这是 AI L1 对于成熟的公链来讲在引起 AI 社区 mass adoption 方面的巨大优势。

具体谈论 AI 资产或者隐私计算方面,数据那边相应的确权问题可能比较老生常谈。

我简要介绍计算方面,对计算负载,我们会采取上加链下分工的形式,链下 AI 由 TEE 完成。TEE 是 AI 领域目前较能落地的隐私计算方案,overhead 非常少,可以和 Web2 的 AI 产生竞争,具有 mass adoption 的可能性,相对于其他 distributed training 或者 inference 方案而言。

我们目前的 solution 中所有 AI 负载都会在 TEE 环境中完成 attestation 保护运算结果不被监听或者篡改。基于 TEE 的 attestation,我们实现上链以及可信的计算或者 Web2 revenue sharing 之类的逻辑。

我们的核心思路是通过 TEE 的手段将链上和运行打通,将数据和执行绑定成闭环。对于所有需要私有数据的保护,或者高价值 AI 运算的工作负载,都可以提供一个可验证低开销的运行环境。

我们认为这是我们与通用公链的最本质差异。刚才提到的是 AI 资产隐私计算,从生态角度来看,我们正在构建 AI Build 生态,希望实现 AI+ Web3 的协同。

首先,让所有不同水平的 builder 都能来我们这里创造各种资产,从数据资产到 Agent 资产,再到更复杂的模型训练,这些资产能够自动调用、自动享受分润。

AI Build 是我们所追求的,也是 AI 公链通常忽视的领域。我先讲到这。

Abhishek:

专注于人工智能的 Layer-1 区块链是专为解决 AI 领域特定问题而设计的网络——它们并不试图与 Solana 等通用链竞争。

随着 AI 整体市场的持续扩张,AI 专用 L1 将迎来发展机遇。Sentient 就是一个典型案例:我们通过构建开源、社区共有的通用人工智能(AGI),与 OpenAI、Anthropic 等闭源巨头展开竞争。

我们拥有自主的 Dobby AI 模型家族和 Sentient Chat(类似 DeepSeek/ChatGPT),主要利用区块链技术追踪社区贡献、自动化支付流程,并登记模型与智能体的所有权。

由于我们的模型和智能体可在任何链上运行,Solana 等网络实际上是协作伙伴而非竞争对手。大多数 AI 专用 L1 本质上是 AI 基础设施公司,而非区块链基础设施公司。

Biteye:

我们现在讨论今天的第三个问题。AI L1 这条赛道会非常火爆,未来也有很多决胜点。

如果涌现出越来越多的 AI L1,整个市场是否能够消化?目前这些 L1 是竞争还是合作关系?未来又会有怎样的发展?

针对这个问题,我们邀请 Rocky 老师发表他的观点。

Rocky:

首先,目前不断涌现出许多 AI 公链,市场能否消化的本质在于市场有多大。

当市场容量足够大时,它可以消化。前不久硅谷的互联网女王 Mary Meeker 发布了复出 AI 研究报告,她之前在 Morgan Stanley 进行了多年互联网相关研究,并且做了很多预测准确的领域。

最近她撰写了一份 340 页 AI 报告,阐述未来 5 年到 10 年 AI 趋势。她预测 2030 年 AI 相关市场将达到 10 万亿规模。目前市场预测在 Web3+ 区块链(AI 是新生产力,Web3 是新生产关系)它们之间互相结合,这里面大概有 1 到 2 万亿的规模,大概 1/10。我们可以发现目前整个比特币有 2 万多亿,而它的整个赛道可以达到 1 万亿或者 2 万亿。

因此我认为它的规模体量可以消化如此多 AI 公链。市场体量是决定它是否能够消化的关键因素。

我们也可以观察到整个资本情况,例如喜欢投资 AI 的顶级机构、VC,比如 a16z、Paradigm 以及红杉资本,红杉目前基本上以 All in 在 AI 方向,经常举办各种活动。

可以看出顶级机构一定比普通研究方向的团队更具优势,他们拥有第一手资讯和市场最新方向。我们关注这些顶级机构投入真金白银投资,并且向这个方向进行分析研究,这一定没错。这是目前的情况。

我们还有一个关键点是竞争和合作关系?当越来越多的项目公链出现时,虽然互相之间存在强烈竞争关系,但是它们之间仍然存在很多合作关系。

目前中心化 AI 的弊端越来越明显,我们经常提到数据垄断、算法黑箱和较高的准入门槛等一系列,包括隐私问题,在 AI 发展过程中越来越凸显,很多人对某些东西感到抵触。

这些痛点本质上说明,去中心化,这是 AI 方向的一个很好的解决方案。我们更倾向于他们之间的互补关系、合作关系。AI 公链与传统公链相比难度更高。

AI 需要算力、计算、推理、保障隐私以及验证,还需要提供一系列后端标准化 SDK 开发接口等,因为囊括的内容非常繁杂,所以难度比传统的做公链大很多。

因此在去中心化 AI 中,我认为它后续会更倾向于成为一个什么?一个模块化结构。

例如我开发 AI 应用,可能在 Sahara 上运行模型,算力可能运行在 Gensyn 或者 IO 的算力网络上,使用 VANA 数据,通过 Mira network 验证,等等一系列可组合性和可模块化方案,这是未来的一种形态。

一个项目不可能只有一个公链,所有功能都做得很好,这非常困难且冗杂。它肯定有一个细分、专业的方向,然后实现互补和合作的可能性。

在这方面,未来如何发展可能还有一些机会或者发展方向。我之前在文章中经常提到 AI 的整个过程中,数据是 AI 的石油,算力是引擎,模型是高速公路。

因此从未来发展逻辑和方向来看,我们首先优先考虑基础设施、算力、数据和模型,这个方向可能孕育很多新机会。

例如分布式算力等,在 23 年 GPT4 刚出现时,早期算力增长非常迅速,包括许多代币,例如 RNDR 和 AKT,以及一个在 Solana 上面也从事算力的项目,当时算力的涨幅确实非常恐怖。

基础设施,算力、数据、隐私这一块,相对而言,是我们更倾向于早期投资的方向,也是早期机会的一个很好的方向。

接下来是平台型项目,例如我们在模型方面的 Bittensor (TAO),这是我非常喜欢的项目。

这个项目也放在我的简介中,主要投资代币,我推荐的是 btc、SOL 和 TAO。它实际是一个模型的淘宝,我们挂在上面,互相竞争,并通过合作实现挖矿机制和激励机制。

它上面的子网不仅在 Web3 领域具有实用性,还与一些 Web2 的公司进行合作,因此它是相对较好的模型。

我们最近特别关注 Sahara,并且经常在推。Sahara 最近也在做公募,在 buildpad 上面做公募,这也是重点需要关注的。

在投资方向上,我们优先选择基础设施,接下来是这种平台型的,这种平台型的市值较大,流动性较好。假如你有大资金,可能会优先选择这一系列。

想寻找阿尔法和高回报的项目,可能是做应用层的 AI 应用。我们在应用方面比较看好与 DeFi 结合的项目。

之前有一个项目是 Wayfinder,这个项目已经发币了,之前也是 Paradigm 投资的,上线后涨幅很不错。

它从事 DeFi+AI 的工作,目前很多 DeFi 困难的地方是很多收益池和挖矿情况下,很多人找不到合理的 DeFi 投资路径。它通过结合 AI 为你提供定制化 DeFi 方案,实现直接一键 staking 的方式。

我认为每个应用都有一些很好的方向,例如 DeFi、分析类和研究类都是很好的方向。偏应用型的是一个高爆发的机会,值得我们留意。重点讲解到这里,感谢。

Biteye:

感谢 Rocky 老师的精彩分享。接下来请 Junyi 老师从项目方的角度与大家讨论这个问题。

Junyi:

刚刚 Rocky 老师讲述得非常好,目前能消化,而且合作肯定远大于互补。

AI 市场增长非常迅速且广阔,AI 领域的 build 才刚开始。有许多项目是从大模型时代开始,旧 AI 叙事中继承改造而来,横跨多年的不同项目,大家的生态位完全不同。

有人在做算力、inference 或者 decentralized training,这些都是不同的互补关系,大家之间会互相接入。

从另一个角度来看,AI 技术天然喜欢合作。以 Web2 AI 为例,我们过去有 ONNX 这样的统一模型格式。

目前 Anthropic 提出了 MCP 的格式,最近大家都提出了自己的 Agent 通讯协议。

诸如此类,很简单的事实就是 AI 无论是过去大模型之前还是现在,都处于快速发展的阶段,没有人能闭门造车,如果大家要形成生态互动,享受 AI 发展带来的红利,我们必须介入公开标准。

简而言之,大家必然倾向于形成合作。

Sahara 作为项目方,我们相信真正留住用户和开发者,形成真正的 mass adoption 仍然需要满足 AI 生态上的闭环。

如果一个项目缺少闭环上的链度,那么可能会变成专注于某一具体方向上的功能性链。为了避免这种情况,核心需要抓住落地应用,在自己的生态上构建对应的价值,以及保持对 cutting edge AI 技术的 sense,随时适应新涌现出的 AI 技术和范式。

总结来说,市场对 AI L1 的需求远远未饱和,最终可能不会有这么多同质链。

我们认为最后能够生存的应该是提供完整闭环的体验,具备可信的执行隐私保护的资产确权经济激励,并且在这些方面的基础上提供公平开放可持续 AI 体验的 L1,这才是 Crypto+AI 进入 mass adoption 的必由之路,也是 Sahara 最为关注的事情。

Biteye:

感谢 Junyi 老师的分享,让我们从项目方角度了解到更多信息。

我们注意到 Sahara 最近的活动中朋友越来越多,敌人越来越少,因此未来的合作关系可能会更加明显。

Lao Bai 老师针对这个问题有什么补充吗?

Lao Bai:

我认为市场对 AIL1 的消化能力尚可,目前赛道热度和融资规模都很好。

如果你关注一级市场的融资金额,那么我猜测 2024-2025 的融资规模第一赛道如果不是 AI,那么大概率会是 Infra。AI 不是第一,就是第二。因此 AI L1 目前的标的数量尚未井喷,市场消化度应该可以。

至于竞争或者合作,从政治正确角度来看,合作大于竞争。现实状况是竞争合作应该占一半,说竞争会非常激烈,例如 L1 的公链,你认为 Arbitrum 与 Solana 有什么合作?OP 与 SUI 有什么合作?如果你进行 Full Stack,它本身没有合作。

当然你可以从模块化角度分析,例如与一条 L2 可以和 Celestia 合作,所有的 L1 和 L2 都可以与 chainlink 这种预言机合作。

有一些 AI 的 L1,例如 VANA,或者 L2,它聚焦于一个点,只做数据,包括之前的 IO,不是一个链,而是一个 Dapp,只做去中心化算力。

还有 Bittensor 的某一个子网,它聚焦于图像生成,还有聚焦于文字的,类似于 Chatgpt。这些可以与其他综合性 AI L1 合作。但我认为几个大 AI 的 full stack 的竞争一定大于合作。

至于未来的发展,我认为主要与 AI L1 奠定的场景相关。正如我上一个问题回答的那样,Arbitrum 走 DeFi 路线,OP 走 infra,Solana 走 Meme+DePIN。

AI L1 应该走哪些路线仍然是一个不确定的。去年我聊过一些专注于做去中心化推理或者训练的项目,他们也开始转型为 Full Stack 的 AI L1,打造一个生态。

我认为从 DeFi Summer 到现在,我们都是向内求的,包括 DeFi、NFT、游戏等各种尝试,实际上还是面向圈内用户。

AI 不太可能完全依赖于向内求,或者说完全服务于圈内用户就可以生存。我认为这是一个更大的场景,你既需要向内求,包括之前大家提到的 agent,DeFAI 这种方式,也需要向外求。

目前 to B 的可能性大于 to C。如果你想 to C,那么大家每天使用的 AI 都是 Grock、gpt,你可能不在乎 AI 给你的输出是否可以验证,个人也不太会有去中心化算力和其他 AI 相关的需求。

B 端确实有潜力,例如 Rocky 提到的 Bittensor 有些子网确实服务 B 端用户,Sahara 之前也有 B 端用户,包括微软、AWS。还有 Grass 已经在网上爬了好多 PB 数据,有些 B 端客户企业是从他们那里购买数据。

之前我与硅谷的专业投 AI 的投资人交谈,我们得出一个结论,中短期内最有价值的资产不是大家想象的去中心化算力、数据和模型,最符合商业场景的可能是 Grass 这种,他需要利用用户的 IP 地址和浏览器,Grass 用于数据抓取,以防止从单一点去爬数据时被人 block 掉。

我们后来讨论,他认为下一个应用场景是在 AI agent 爆发之后,可能需要几百几千个 agent 并发处理一件事情或者完成一个较大的 project。

他们可能访问同一个数据源,如网页、API 或者某个单一实体。如果从同一台机器、服务器或者 IP 地址上进行并发,那么这可能会被 block 掉。

因此你需要做的事情类似于 Grass。如果有几十万甚至上百万的浏览器插件和用户 IP 地址,你 agent 分布在不同的去中心化机器上,利用他们的浏览器发动去中心化的访问和数据处理,包括数据请求,最终完成任务,这是一个非常 make sense 的业务场景,可能在未来 1、2 年内出现。

这是我与一位专业 AI 硅谷投资人交谈之后,我们认为可能出现的业务场景。

我目前还没有确定 Full Stack 的 AI L1 应该聚焦于,或者爆款诞生于哪个具体的应用场景,这个事情还是需要交给业务项目方和开发者 figure out。这就是我的想法。

Biteye:

好的,感谢 Lao Bai 老师的回答。

大家对此问题的讨论非常深入,是否有现场的嘉宾或者观众想要针对此事进行补充或者交流?

Abhishek:

人工智能正在成为人类有史以来最大的发展机遇,这个领域完全可以容纳众多以 AI 为核心的 Layer-1 项目——前提是它们能找到真正的产品市场契合点并吸引用户。

由于每个 AI 专用 L1 往往针对不同细分领域(算力市场、模型溯源、智能体所有权等),项目之间更存在广泛的合作空间而非冲突。大多数团队都怀有去中心化和民主化 AI 的共同目标,这自然促使他们走向协作——无论是汇聚流动性、桥接数据还是共享工具——而非正面竞争。

随着 AI 经济规模扩张,AI 加密领域有望成为行业中最大的细分市场之一,多个成功项目将各司其职满足不同需求。

其中部分网络可能成长为与当今科技巨头比肩的存在,就像英伟达在股票市场的崛起轨迹。

Biteye:

我们继续讨论今天的最后一个问题,从散户的角度来看,如何参与 AI+ 区块链项目的淘金中?

首先请 teddy 老师分享对此问题的想法,这个问题也是 teddy 老师强调的内容,一定要放到最后邀请大家一起讨论。

DeFi teddy:

我先回答这个问题,抛砖引玉。

我认为如何参与,首先是通用的方式,类似于其他 Web3 项目的参与机会,可以关注类似 tge、打新的机会,例如最近的 buildpad Sahara 的公募机会。

除了打新之外还有一些空投,可以与项目进行交互。以 Sahara 为例,之前大家可能参与数据标注,这是一种交互。

另外,比较 infra、decentralized AI 的,作为开发者可以部署并运行一个节点。有时候开发者的门槛可能并不高,他们主要是运维。只要了解运维如何部署机器 run 起来,实际上都可以。

目前门槛越来越低,如果有不懂的地方,可以直接询问 AI 告诉他们遇到的问题,他们会帮助你解决。因此这一块的门槛逐渐降低,普通人也可以参与到技术较高的门槛中。

我认为偏应用层的项目更容易交互,因为应用层的用户本身也是普通用户,所以一些优秀的 AI 应用层项目如果是 VC 支持,TGE 时肯定会给用户奖励。

例如 Rocky 之前提到的 Wayfinder 就是类似 DeFAI 的项目,这种项目有很多交互机会。如果作为散户使用多个地址进行交互,那么收获会很好。

对内容创作者来说 write to earn。大家可以去 Kaito 上寻找热门项目,然后写这个内容即可。如果你已经是一个大的 KOL,那么这非常容易。

如果还没有,实际上也需要一个 build up 的过程,并不难。你的粉丝不一定非常多,可能只有几百上千的粉丝,他们也可以参与 write to earn,并获得了不少奖励。

除了 Kaito 之外,大家可以查看前几天 Biteye 发布的一篇文章,他总结了 InfoFi 赛道里的十几个项目,这些项目都可以进行交互。

通俗的说法就是用嘴去撸,本质上是你需要码字、写一些内容以获取流量,然后你可以参与,他并不一定要求拥有很多粉丝。在新 AI InfoFi 时代,内容创作者仍然有很多机会。

此外,可以利用 AI 工具帮助我们进行投研,例如我会使用 Grok,并且询问他一些问题。

这些问题可能 Chatgpt 实时性没有那么高,Grok 的数据来自推特会好一些。

另外一些工具,例如 Chatgpt 也很好,它具备深度 deep reasearch 功能,你可以直接让他分析某个项目,从以下几个角度分析这个项目,采用 deep research 模式,它会给你详细分析,分析得头头是道且非常完整。

它会从各个 source 搜索,质量很好,可能比一般性 KOL 的内容高。

还有一些插件,我们使用自己的 XHunt,帮助分析 KOL 的情况,了解 KOL 的水平、能力和关注度。

我们还可以进行热门的 ticker 分析和项目分析。有时候仅从推特上搜索效率不高,而使用 AI 帮助,就可以迅速总结,分析也非常有效。

Haotian:

我认为对于大部分散户而言,目前参与 AI 相对比较早期,原因在哪里?我认为目前市面上的 AI 项目过于鱼龙混杂,尤其是许多蹭概念的项目。

散户在这种情况下很容易对 AI 链、AI Agent 产生信仰上的动摇,认为 AI 的 Web3 都是骗局项目。我认为现在这个时间窗口对散户来说挑战比较大。

好在,过去 Web3 AI 已经酝酿半年到一年左右,并且有很多去中心化 AI 项目出来,以及一波 AI agent fomo 潮。因此整体而言,购买了教训的人群已经买到了,大家对 AI 赛道的看法也更加理性。

我认为在这种情况下可以谨小慎微地参与,参与的途径主要有以下几个方向,即 AI 链的几大功能。

第一大功能是目前相对成熟的数据贡献,这是对 Sahara 做的事情。因为对散户而言,数据贡献的门槛最低,所以我认为可以做。

你只需要进行数据标注并完成任务,就可以获得积分以此搏击潜在的 TGE 回报。你可以将其视为 AI 时代的撸毛,我认为撸毛的贡献价值比单纯刷交互价值更加 make sense。如果散户感兴趣,那么可以多参与数据贡献。

另一个方向是之前老生常谈的,算力贡献。如果手头有闲置的 GPU 资源和硬件,就可以去平台进行测试网挖矿。

这类情况的问题是门槛会越来越高。之前 IO 那波用一台 m1 的 MAC 就可以挖,后来估计如果再有大型 AI 平台出现,硬件成本投入肯定会非常大。

问题在于这些投入需要前置的,项目方 TGE 之后你未必能够回本。因此这是一个相对门槛较高且风险较大的方向。

第三点我认为适合大部分散户参与 AI 生态。简而言之,我们关注 AI agent 方面是否有有趣的应用创新。

虽然之前 AI agent 推出了一波,大家认为 AI agent 是各种 meme,但是实际上仍然有一些有价值的 AI agent 在探索。我认为一方面可以提高自己驾驭 AI 的能力,用 AI 做工具服务,帮助自己完成任务。另一方面可以从中寻找小型投资机会。

由于上一波炒作过于 fomo,目前 AI agent 导致大家提到这个话题的心思较沉重。我认为从市场角度来看,关注 AI L1 比关注 AI agent 要好一些,AI L1 至少有很多新的 infra 层面的故事可以讲,不至于把 AI agent 抛出来,大家就认为不可信,与 Web2 的 AI 比,导致尴尬。

因此我认为可以关注 AI L1 生态的活动或者其他参与机会。我就分享这几点,谢谢。

Rocky:

AI 投资是我们基金从 22 年成立至今的重点投资方向,也是让基金净值跑赢 btc 收益率的最重要投资选项。

无论是散户还是机构,我们的核心目标是根据资金体量、背景和风险偏好采取相应措施。

我们通常参与的项目主要有三种,第一种是二级市场,因为我们是二级市场基金,我们投资了很多 AI 项目。

目前我们基本上都会参与一级和二级的项目,我们能够投入的,一级和二级较好的 AI 项目都会投入。

你只要看到我的推特,基本上都能赚到钱。例如最近的 Wayfinder,这是我们在 TGE 之前写了的两三篇文章介绍的内容,我们也投资了这个项目,它的代币 prompt。

我记得这个项目上线时的价格为 0.14-0.15,三天内涨到 0.6 几,即四五倍的空间,这种应用类爆发非常强。

另外,我很早期就在推荐 RNDR,我记得在 22 年年底推荐了三个 AI 项目,分别是 RNDR、FET 和 LPT。

FET 从 22 年年底的 0.1 几美金涨到 23 年 1 月份年初的 GPT4 出来,到 3 月份 fet 直接涨到 3.4 美金,基本上翻了 20 多倍,IRND 大概是 5 倍多,收益都很好。

你可以关注二级这一块的机会,有很多机会可以看我的推特。这是一个很好的机会,我们会公开。

另外一个是一级市场,公募肯定会参与。我们一直在讨论 buildpad 上面 Sahara 的 6 亿估值,而且没有锁仓完全释放,这是一个很好的机会,只要你去举办一些小活动。换一个头像,发布相关文章,你就有机会参与。我认为这是一个相对确定性很高的方向。

我们亲自参与了一些提供算力的项目,例如 IO,我们也贡献 GPU 算力。尽管后面的算力出现了小故障,大家的积分似乎无法对应空投,然而提供算力是一个很好的方向。例如高性能显卡和笔记本、苹果电脑等,这些都是可行的方向。

此外还提供节点,我们曾经推荐过 FLOCK 项目,他们的节点收益也很好。

如果你是 AI 工程师,那么你可以制作 AI 模型,也可以利用模型在 tao 上挖矿获得代币。之前很多朋友通过这个项目赚取很多钱,这都是一些方法。

此外还有撸空投,去年我推荐 Sahara 测试网,当时为粉丝抽取了 10 个白名单,你只需每天做题并进行数据标注即可,这非常简单,只需要花费时间即可。

散户通过不同的资金体量、风险偏好和时间做出决策。因此我们最终需要做好你自己的研究。

尽量要花时间查看项目白皮书,要了解项目这非常重要,即哪些项目值得花时间进行操作,哪些项目不值得你花费时间,你需要了解它解决了哪些问题,技术方案、团队背景、融资以及代币模型等一系列逻辑,然后才会重点关注并投入时间去完成那几个核心的项目,暂时搁置普通项目。

我认为这非常重要,AI 的发展速度和变革都非常快。在这种情况下,我们需要永远保持学习心态,并且拥抱长线思维。我们不能今天努力了,明天就要取得结果,或者在长时间没有取得结果的情况下,三天打鱼两天晒网,这肯定不行。

赛道体量非常大,容量非常大,你需要花费更多时间和精力去研究赛道,这一定有回报,因此这是我们需要重点关注的问题。我的分享到此结束,感谢。

0 2  提问环节

Biteye:

我们知道 Sahara 将 TGE 发币,请问 TGE 之后准备如何激励用户继续为 Sahara 贡献数据?

Junyi:

首先,我相信各位老师已经为我们说了 Sahara 不止标数据。接下来我们将重点关注整个生态,例如开发者平台。数据需求方面则是整个生态中的重要环节。

我讲讲介绍开发者平台的背景,刚才提到大家可能已经参与了许多 crypto 相关 AI 应用,例如抓取 AI 资讯,目前推特上有许多 bot 可以使用,我们考虑的场景是用户想要制作自己的 AI agent 等,并自己定义一些逻辑。

接下来,我们开发者平台将更好地覆盖到。我们更希望看到用户使用我们的 Builder,并对 AI 创造产生兴趣,之后在我们的平台上进化成技术力较高的 Builder,甚至可以制作一些其他人也能复用的组件,产生价值和收入。

我们希望这样对于一些非常厉害的 builder,它甚至可以带领整个 AI 社区,不仅是 Web3,还是 Web2 那边的技术创新,实现反哺。

这是美好的愿景,前提是 data,因为 data 永远是所有 AI 必经之路,无论是人工亲手标注,还是通过人工 inside 结合机器进行标注,我们为了实现对用户持续提供数据,持续产生动能。

我们正在进行的一项任务是将刚才提到的开发平台以及目前已有的数据平台与 marketplace 进行逻辑上的打通和串通。

例如在 agent 创建过程中,我们可能需要使用一些数据,例如抓取关注的 AI 资讯,可能需要各位 KOL 老师的 handle,这也是一种数据,需要标注。用户可以直接在 marketplace 上购买,如果发现没有想要的数据,也可以发布对应的悬赏。

此外,我们生态中还有一些 AI agent 效果测评,例如 prompt 效果验证等需求,这些都会形成数据方面的需求,产生价值。因为他们具备价值,所以对用户会有非常好的激励循环。

Sahara 每个环节都对数据有依赖,会为了高质量的数据而付费。质量是的重中之重,接下来很长一段时间数据平台也会关注质量。

AI 方面需要广泛认识,数据质量决定 AI 的上线。我们希望通过质量维护,让数据标注行为从短期一次性获得回报,逐渐结合之前提到的 revenue sharing 系统形成长期系统合作,让数据和 AI 应用生态之间形成很好联动效果。

Biteye:

感谢 Junyi 老师对这个问题的回答。经过这个问题,大家可能了解到即使在 TGE 之前没有获得空投或者代币,也可以在后续参与 Sahara 活动中,既为项目做贡献,也为自己获得代币。

第二个问题是 Sahara AI,如何在保护用户隐私、数据隐私方面和获取用于训练 AI 模型所需的大规模数据集之间实现平衡?

Junyi:

可能需要分为两个层次。对于 AI Build 生态而言,我们的核心工作是在所谓的 system 2,或者大模型编排或者 ML Orchestration。它的呈现形式可能以数据集和 prompt 等形态为主,也有一些可供训练的数据。

我们之前提到,目前主要的隐私计算选用 TEE,我们正在构造一个全链路的解决方案,这个方案可以平衡 builder 的权益以及预测的 privacy。

我们对代码和数据资产进行了区分,并对两者区别对待。例如数据资产必须保护,为了防止代码对数据做坏事,我们会让代码受到公开审计。

我们的目标是保护用户隐私不泄露,避免代码作恶,同时对创作者权益形成良好保护。这是关于我们目前 system2 在隐私和 AI 训练方面的平衡。

对于真正的 system1 大模型训练,业界探索较早期,市面上的解决方案我们一直在内部跟进,也有 follow up。

他们在性能、开销或者延迟等方面存在明显短板导致无法 mass adoption。我们近期还是关注基于 GPU 的 TEE 中大规模集群训练,这样可以取得较好的结果,当然这个进步可能也是以年为单位的。

Sahara 也在关注一些有趣的话题,例如 MCP、ZK 或者去中心化的 ML training,例如 Nous Research 或者 Prime 他们的工作,我们一直在 follow up。

我们认为目前他们可能存在一些问题,导致无法取得较好的落地,我们会保持非常 close 的关注。一旦他们在某些维度上达到可以落地的门槛,我们会迅速将他们纳入其中。这是关于 system1 的解决方案。

刚才提到的是 address 用户隐私和 AI 训练之间取得平衡的问题。我认为 Web3 的工作已经超前 Web2 的非常多,在 Web2 这些问题根本没有得到妥善处置,包括隐私泄露和数据在未被许可的情况下被纳入训练是司空见惯的现象。我们 Web3 相对于他们已经领先了很大一步。

关于 Biteye

Biteye 是亚洲领先的 Web3 投研平台,致力于打造聪明钱的聚集地,服务超过 30 万高质量用户。我们凭借高质量的投研活跃的社区协同和 AI 智能分析,持续发掘 Web3 世界中真正有价值的机会与信号。

关于 PANews

PANews 成立于 2018 年,是区块链 Web3 领域领先的信息平台,提供国际化前沿资讯与深度报告,内容覆盖图文、音频、视频等多种形式。PANews 是腾讯新闻合作方,其内容被福布斯、财新等引用,并荣获多项媒体奖项。


//


END

关于我们

Biteye 是亚洲领先的 Web3 研究社区,通过社区驱动和 AI 驱动的方式产生前瞻性的投研内容和工具,帮助社区成员探索 Web3 兔子洞。


微信群:添加小助手 @Nicegirl327 入群

Twitter:@BiteyeCN

Discord:discord.gg/Biteye


* 声明:本文分享内容仅作学习交流,不构成任何投资建议,且不代表 Biteye 立场。
喜欢我们的文章,就点击下方的名片关注我们吧!


《去 AI L1 掘金:未来 DeAI 应用的沃土》AMA 文字实录 image 1

0

免责声明:文章中的所有内容仅代表作者的观点,与本平台无关。用户不应以本文作为投资决策的参考。

PoolX:锁仓获得新代币空投
不要错过热门新币,且APR 高达 10%+
立即参与!

你也可能喜欢

Bitget 现货杠杆新增 H/USDT!

Bitget Announcement2025/06/26 03:31

HUSDT 现已上线合约交易和交易BOT

Bitget Announcement2025/06/25 09:35

Bitget 现货杠杆新增 NEWT/USDT!

Bitget Announcement2025/06/25 02:55