1. 首页>>区块链

速览 Vana:VC 三巨头齐聚的 AI 项目,主打数据 DAO 但先玩起了点击挖矿(附参与教程)

作者:深潮 TechFlow





市场长期在“AI不火了,AI又火了”的循环中度过。



尤其是伴随着顶级 VC 投资的信息,AI 项目往往能瞬间从不温不火到人人讨论。



昨天除去讨论 Token 2049 上 Vitalik 的现场献歌,CT 中讨论最多的项目当属 Vana : 项目官宣同时获得了加密 VC 三巨头 Coinbase Ventures、Paradigm 和 Polychain 的总计 2500 万美金融资后,各种点赞、祝贺与分析帖子立马涌现。





你可以不爱 VC 币,但热点缺乏的市场中任何大手笔融资还是值得关注。



Vana 的推特简介上写着:“通过用户拥有的数据,实现用户拥有的AI”。



看上去又是反大公司垄断AI的叙事,又是在数据层做文章,又是熟悉的 VC 齐聚... Vana 这次有啥差异化?



数据 DAO 高大上,团结 VC



Vana 的融资信息一出,各方看好。



比如,有推友分析 Vana 是 Paradigm 投了的第一个 AI 项目,并且 Vana 在不同的融资轮次拿到了不同顶级 VC 的投资:





  • 战略轮:Coinbase Ventures 投资 500 万美金




  • A 轮:Paradigm 领投 1800 万美金




  • 种子轮:Polychain 投资 200 万美金





如果 VC 三巨头共同钟爱某个项目,那多半是因为这个项目的叙事和要解决的问题足够大。



正如开头所说,Vana 主打的问题领域,还是AGI时代数据控制权的“屠龙”叙事 --- 个人白贡献数据拿不到回报,数据隐私得不到保证;大厂们几家独大训练寡头 AI 模型... 因此我们要打破这种局面。



但顺着这两年的 AI 趋势看,呼吁 AI 多模型并举,反对一家独大,已经成了加密圈的叙事正确。



(相关阅读:Delphi Labs: AI 将出现多模型竞争,我们看好哪些加密应用?



这并不是啥新故事,但当前讲这个故事的大部分加密 AI 项目,大多集中在 DePIN 领域,即鼓励用不同领域的硬件,去贡献不同的资源。



而 Vana 解决问题的出发点则更显得老活新整 --- 用不同目的的 DAO,让大家贡献不同类型的数据,从而为不同目的的AI模型进行训练。



Vana 在自己的技术博客文章中写道:



“数据DAO是一个去中心化的实体,允许用户汇集和管理他们的数据... 这有点像数据工会。DAO完全控制数据集,可以选择出租或出售匿名副本。例如,Reddit的数据甚至可以用在新的用户拥有的其他平台,包括朋友,过去的帖子和其他数据,随时可以在新平台上使用"。





目前 Vana 的官网上列出了16个不同的数据 DAO,允许用户贡献如 Reddit、推特和约会软件等各类不同的数据,并通过 Vana 的区块链网络掌控自己对这些数据的控制权。



同时,数据还能贡献给需要特定垂直领域数据的 AI 模型进行训练,用户也能得到收益。



如果各行各业的各种数据,都能通过这种 DAO 的方式进行贡献,确实是一个相对理想的模式,但问题在于如何实现。



这里面至少涉及到两个具体问题:





  1. 你怎么保证我确实贡献了数据 ?




  2. 你怎么保证贡献数据的安全性和所有权得到保证?





而这也就涉及到了 Vana 网络的实现方式和原理。



Vana网络的核心在于其独特的多层架构设计,旨在创建一个去中心化的数据生态系统,解决上述数据所有权、隐私保护和价值创造等关键问题。



根据最新的架构图,Vana网络主要由三个关键组件构成:数据可移植层(Data Portability Layer)、数据流动性层(Data Liquidity Layer)和通用连接组(Universal Connectome)。







  1. 数据可移植层(Data Portability Layer)--- 这一层是Vana网络的顶层,负责处理链上数据的应用和AI模型。在这一层中,主要有两类参与者:







  • 开发者(Developers):他们创建使用链上数据的应用程序和AI模型。




  • 用户(Users):他们使用这些应用和模型,同时也是数据的最终受益者。





这一层的主要功能是确保数据的可移植性和互操作性,使得用户可以轻松地在不同应用和模型之间转移和使用他们的数据。





  1. 数据流动性层(Data Liquidity Layer) --- 这一层负责将用户拥有的数据带到链上,是整个系统的基础。它包含两类重要的参与者:







  • 贡献者(Contributors):他们将自己拥有的数据贡献到系统中。




  • 验证者(Validators):他们负责验证贡献的数据的真实性和价值。





这一层解决了如何安全、可信地将离线数据转化为链上资产的问题,为整个生态系统提供了数据流动性。





  1. 通用连接组(Universal Connectome)--- 这是一个独特的组件,作为整个生态系统的实时数据流动图。它由以下角色组成:







  • 传播者(Propagators):他们负责在生态系统中传播和更新数据流动的信息。





通用连接组的作用是提供整个生态系统中数据流动的实时地图,使得所有参与者都能了解数据的流向和使用情况。



这三个组件紧密协作,形成了一个完整的数据生态系统:





  • 数据流动性层将用户拥有的数据安全地带入链上,为整个系统提供原始数据。




  • 数据可移植层利用这些链上数据,支持各种应用和AI模型的开发和使用。




  • 通用连接组则实时监控和展示整个生态系统中的数据流动,确保透明度和可追踪性。





如果不深入讨论实现的技术细节,如智能合约、ZK和代码层面的东西,你可以通俗将 Vana 看作一个为数据的贡献、验证、使用和监控提了全面解决方案的区块链网络。



大基建、垄断AI模型屠龙、DAO 的老活新整... 几个要素叠加起来,团结几个顶流 VC 也就显得相对合理了。



(深潮注:对技术感兴趣的读者可以直接访问项目doc了解更多内容)



点击挖矿接地气,团结群众



按之前加密 AI 的调性和套路,这类项目主打一个高大上和科技感拉满,一般玩家也就停留在觉得不明觉厉但难以实际参与使用的阶段。



但这次 Vana 在实际玩法上变得更加接地气 --- 除了面向 VC 的高大上叙事之外,也有面向散户、门槛放低和喜闻乐见的”点击挖矿“模式。



叙事很重要,调性很重要... 但人气更重要。



说到 Paradigm 投资的项目,那种从 Blur 和Friend.Tech 祖传而来的搞积分、拉人气和重运营的玩法也在 Vana 上得以体现,具体玩法如下:





  1. 打开电报,在 Vana Data Hero 这个小程序(感兴趣的玩家可以通过此处进入尝试)




  2. 主玩法目前也非常简单,就是单纯点击鼠标敲击屏幕中捆绑着各类 Web2 应用图标的球,点击次数越多点的越快,单位时间内增加的 VANA 点数就越多(可能是象征着从Web2各类应用中贡献数据以挖矿)









  1. 除了单纯的点击屏幕,还有其他各类关注社媒、邀请朋友、添加测试网等活动可以完成,随后会奖励不同的分数。







项目方显然是懂营销和贴热度的。比如其中的某个任务,是在马斯克曾经关于 AI、数据和隐私相关话题的帖子下进行回复,完成即可加500 VANA 分;这就有点团结群众借势宣传 Vana 自己的味道了。





但目前我们并没有完全了解这个 VANA 分数的兑换代币的比例和发放规则,感兴趣的玩家可以进一步关注 Vana 的社媒以了解更多信息。



不过在 VC 巨头们的加持和电报小程序成功项目的先例下,撒钱和上所预期肯定是有的,只是 PUA 的积分玩法让人又累又FOMO, 选择用何种姿势参与,那就见仁见智了。



大人,时代变了



有趣的地方是,浓眉大眼的 AI 项目,也要通过电报小程序搞人气和预热了。



之前的AI项目给人高大上的感觉,但在行业掀起 VC 币不接盘,TON 生态小程序代表 Mass Adoption 的大讨论之后,现在的项目方们也明显顺应了行业的变化。



既要向上团结 VC ,也要向下争取群众。



如果你查阅 Vana 更早的信息,会发现在21年成立之后,项目的定位是一个AI身份生成应用程序。





显然,做应用程序不如做基建,面向VC叙事也不如VC和群众两头抓。



转型之后的 Vana 身上,你可以明显看到项目在 Go To Market 上的策略变化。大叙事就那么多,新技术也绝非立马就能出来,与其指望大环境变化,不如自己最大限度的调整姿势,符合当前市场的节奏。



笔者预期,会有越来越多的新项目,或者老活新整的项目变换玩法。



时也,命也。


本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://ylfx.com/qukuailian/2023.html