撰文 | 雁 秋
编辑 | 李信马
题图 | 豆包AI
黄仁勋将OpenClaw比作AI时代的Windows。这种开放能力,带来的究竟是生态的繁荣,还是另一种形态的垄断?
“OpenClaw在行业最需要的时候,提供了最需要的东西。”在GTC 2026年度开发者大会上,黄仁勋给予OpenClaw极高的评价。
行业最需要什么?OpenClaw又提供了什么东西?在DoNews看来,AI正在从数字世界迈向物理世界,行业急需一个能打通两者的开源基础设施,而OpenClaw恰好扮演了这样的角色。
作为一个开源的Agent平台,OpenClaw深度优化了与CUDA及英伟达硬件的兼容性,在用户给予足够系统权限的情况下,它可以通过Agent自动操作电脑、调用工具、执行任务。
黄仁勋将其与Windows相提并论,认为OpenClaw对于人工智能的意义,就如同Windows对于个人计算的意义一样:它定义了应用与底层硬件交互的标准,降低了开发的门槛,催生了难以计数的应用生态。上到GITHUB这个最大的开源社区,中到企业的纷纷效仿,下到普通人排队装“虾”,OpenClaw的蔓延程度令人惊讶。
图源:IC photo
然而,开放的另一面,是否会是一把枷锁?就像Android,代码是开放的,但Google却通过GMS(谷歌移动服务)牢牢掌控着生态的话语权。未来,OpenClaw是否会沿着同样的路线演进?对于中国科技企业而言,兼容OpenClaw是否会通往更繁荣的地带?
01、黄仁勋的五层蛋糕与算力铁律
黄仁勋为何要大夸特夸OpenClaw?搞清楚这个问题之前,我们不妨先来了解一下他提出的“五层蛋糕”理论。
具体来讲,黄仁勋将整个AI产业架构分为五层,自上而下依次为:应用、模型、基础设施、芯片、能源,每一层相互支撑、相互拉动。
应用:最终面向用户的AI软件模型:OpenClaw在这一层基础设施:土地、供电、冷却系统、网络通信等芯片:将能源转化为算力能源:(物理意义上)电力
在黄仁勋看来,每一个应用的成功,都会拉动下方每一层的需求,一直延伸到发电厂。这两年算力、电力为何被屡屡提及,频繁出现在大众视野中?原因在于大模型愈演愈烈。
无论是像OpenAI一样选择闭源,还是像Meta一样开源,只要它们需要通过智能体框架(如OpenClaw)去执行复杂的任务,就需要消耗大量的算力。模型和应用越繁荣,对底层算力的依赖就越强。
而所有的繁荣,都要向底层的“卖铲人”英伟达支付高昂的算力费用。
再来看看OpenClaw都做了什么,从一开始,它就深度优化了与CUDA及英伟达硬件的兼容性,各家公司都可以在此基础上构建自己的智能平台,也就是所谓的“养虾”。看似在模型层面构建了开放的标准,但在芯片层面强化了英伟达的护城河。开放的生态,直接成了底层算力寡头的“引水渠”。
换句话说,黄仁勋对OpenClaw的盛赞,也是因为它为英伟达带来了源源不断的算力需求。
02、各大门派的虾塘攻略
OpenClaw带来一波“养虾”潮,但“养虾”前先得有“虾塘”,大厂们最先卷起来。
阿里、字节跳动、腾讯、百度等科技公司都陆续上线部署或接入OpenClaw;月之暗面、智谱AI、MiniMax等大模型公司,也为OpenClaw推出了专属的Coding Plan(编程模型订阅)订阅套餐。
就连手机厂商也来凑热闹。小米做了MiClaw,自称智能体,但有争议;荣耀说自己的 MagicPad 4 可以部署 OpenClaw,但目前没有多少声量。
DoNews在近期的行业交流中,对几款主流“龙虾”做了基本的了解:
大模型公司踩中了OpenClaw烧token的痛点,发布了门槛更低、价格更便宜、输出更稳定的云端模型,其中以月之暗面和MiniMax为代表,这两家在OpenClaw的这场巨浪之中收获颇丰。
月之暗面-Kimi Claw
月之暗面速度最快,在2月18日就上线了一键部署工具Kimi Claw。这是一个云端托管的OpenClaw服务,用户无需本地部署,直接在浏览器中就能使用完整的OpenClaw功能。
重点是,Kimi Claw内置了Kimi K2.5模型,自动关联用户的Kimi Code会员权益额度。用户无需额外配置API Key,不用担心烧掉token。
MiniMax-MaxClaw
MiniMax紧随其后,在2月25日推出了MaxClaw。MaxClaw走的是和Kimi Claw一样的路子,基于自家MiniMax M2.5模型,但其定价策略非常激进,API价格更便宜。
因此,MaxClaw发布后12小时内登顶OpenRouter热度榜,一周内登顶调用量榜首,周调用量3.07万亿token,超过Kimi K2.5、GLM-5与DeepSeek V3.2三家的总和。
上面两个代表产品更多在极客圈流行,对于普通人、尤其是不懂技术的人来说,光是安装配置就消耗掉大部分热情。大厂看到这一痛点,开发了开箱即用、又能控制风险的解决方案。
阿里“悟空”
“悟空”的优势在于场景和供应链,面向B端中小企业和个人。它可以在钉钉、个人电脑(Mac/Windows)、云电脑等多种运行环境中执行任务,直接访问和操作用户设备上的文件、应用。
更重要的是,悟空深度集成了淘宝、天猫的底层交易接口,打通了电商购物、物流查询、售后服务等内容,可以直接通过指令,完成从种草到下单的全流程。
不过“悟空”目前还处在初期阶段,输出不太稳定。有人反映“悟空”好像经常不能结束它没做完的任务,除非强制停下,更棘手的问题是,它很耗算力,尽管你没让它做太多事情。
图源:悟空发布会
腾讯QClaw
QClaw的特点在于C端社交,它无缝衔接腾讯巨大的生态,在OpenClaw的框架基础上强化了社交功能,可以像真人一样给好友发消息、拉群、调用小程序服务。
微信甚至也连上了OpenClaw,官方在近期上线了插件。过去微信的更新都是自建生态,把外部模型搬进来确实非常罕见。看得出来,腾讯确实也有点焦虑。但微信也表示,有权对风险情况采取拦截、阻断等措施,OpenClaw可以随便跑,但要遵守微信的规则。
说实话,不知道这些更新是来自创新驱动还是焦虑驱动。但大多数厂商并没有选择另起炉灶,而是基于OpenClaw开源项目的二次开发或深度集成,一方面降低用户“养虾”门槛,同时拉动底层算力消耗。
03、别对龙虾太上头
越是疯狂时,越要保持清醒。
如今,中国已成为AI最活跃的主场之一。据全球AI模型聚合平台OpenRouter,在2024年2月的一周内,中国模型的周调用量高达5.16万亿Token,几乎是美国模型调用量的两倍。MiniMax、月之暗面(Kimi)、智谱、DeepSeek等公司的模型在海外市场被海量调用。
一方面说明,中国AI模型的实力已被全球认可;但另一方面,全球开发者对于中国模型的调用,很大程度上是通过OpenClaw这类智能体框架完成的。我们的模型虽然跑得欢,“水管”却攥在人家手里。这种依赖,不可避免会带来风险。
首先,就是技术主权的桎梏。
由于依赖于对底层架构的深度绑定,国产“龙虾”并未实现自主。如果所有的“开发”都只是在为OpenClaw做生态补充,而非构建自己的底层标准,那么未来OpenClaw修改协议、调整接口,国内开发者就会受到较大影响。这就好比当年手机厂商都基于Android深度定制,但谷歌通过GMS服务依然掌握了生杀大权。
巧合的是,就在小编撰写这篇文章期间,OpenClaw就出现了「事故」。3月23日,OpenClaw突然更新了2026.3.22-beta.1新版本,ClawBot无法适配新版OpenClaw安全审计流,出现了大面积请求报错。随后ClawBot全面陷入瘫痪,导致飞书、钉钉等第三方集成方案也因底层架构不兼容相继出故障。
国内大厂基于OpenClaw做二次开发,是长期的最优解吗?在“完全自主”和“融入生态”之间,是否存在第三条路?
其次是安全的窟窿。
根据国家信息安全漏洞库(CNNVD)统计,自2026年1月至2026年3月9日,共采集OpenClaw漏洞82个,其中超危漏洞12个,高危漏洞21个,包含了访问控制错误、代码问题等多个漏洞类型。
OpenClaw本身就存在多项风险窟窿,虽然兼容OpenClaw的国产大模型,已经通过强制认证、访问限制、最小权限等方式协同防护,但又能否保证绝对的信息安全?尤其是像微信聊天这种非常私密的环境,但凡中间任何一个环节出现漏洞,对于普通人的风险是难以估量的。
任何人都需要客观理性地去看待“龙虾”,重新判断它的价值。
写在最后
最后,再谈谈小编作为一名科技内容创作者的感受吧,最近简直要被各种“7×24小时”“数字员工”刷屏,身边没有人不聊“龙虾”,他们几乎都会告诉你,它可以代替人类做大部分工作。
但小编感觉要做的事情反而更多了。以前写稿,能扒到信源就那么几个,如今AI工具直接搬出来几十个,稿子写完还得留个心眼:这段内容是不是AI编的?这个数据靠不靠谱?
AI让人省事了吗?可能只是换了一种操心的方式,最后拍板、担责的还得是人类——你需要用它,但也得防它。