田晏林 发自 凹非寺开云体育
量子位 | 公众号 QbitAI
特斯拉开源硬件专利后,所有东说念主都在等:中国公司若何回复?
目下谜底来了——跟风硬件没情理,要开源就找比硬件更值钱的东西。
4月22日,智时时发布AlphaBrain Platform开源社区。这是各人首个一站式、开箱即用的具身智能模子开源社区。

谨防,此次不是单模子开源,智时时蚁集港科大(广州)熊辉团队奏凯拿出了一套“顶配全家桶”:
具身前沿时期(类脑/天下模子)最全架构掩饰(RL/传统VLA/类脑)最解放组合智商(跨范式即插即用)最平正评估圭表(妥洽Benchmark)最鄙俗斥地社群(集聚各人产学研开源力量)这些正本只存在于顶尖实验室的前沿时期,目下一齐盛开!任你取用!
有斥地者评价:
以前开源是给你一个器具,目下开源是奏凯给你一个器具箱。
2023年确立的智时时,专注AGI原生的通用智能机器东说念主,目下公司范围近300东说念主。
因一年12次融资,该公司被外界称为各人具身智能范围融资节律最快的独角兽。摩根士丹利也把它列为具身基础模子的代表企业。
此时拿出这样一套“器具箱”,智时时有什么考量?

往常两年,具身智能走漏了大量开源模子。但一个疼痛的现实是:开源模子好多,确切“好用”的很少。
斥地者如故要濒临各式问题:这个模子若何跑起来?阿谁模子跟它比谁更强?我想作念的改变能不成落地到真实场景?
目下,AlphaBrain Platform礼聘开源“让模子跑起来、比得清、落得地”的全链路智商,便捷复现、便捷对比、便捷场景化落地。
信号仍是很明确了:中国具身智能的开源战,细致插足头部玩家卡位阶段。
5大时期亮点,有3个最值得看前边说过了,这套“顶配全家桶”集皆了业内五大中枢时期。
其中最受蔼然的,当属天下模子、类脑模子、RL Token和抓续学习算法。
它们是现时具身智能范围最火的时期路子,各有各的狠活儿。别急,我们一个个来看。
天下模子:最火的“想象力引擎”AlphaBrain Platform最硬核的地方,是把天下模子的智商给拉满了,带来了各人首个可插拔天下模子架构(WA)。
亮点有主要有2个:
1、原生集成NVIDIA Cosmos Policy原始权重。
这可不是挂个名头。
斥地者不错奏凯加载NVIDIA Cosmos Predict2阿谁2B参数的DiT原始预考研权重,在latent space里通过视频扩散模子展望机器东说念主动作。
说白了,即是把NVIDIA最中枢的那套“动作展望”智商,因循守旧地搬了过来,可训参数约1,956M,这基础底细打得够厚。
2、预设三大主流天下模子Backbone,解放切换。
Meta的V-JEPA 2.1(约18亿参数),视频蚁集镶嵌展望架构;VIDIA自家的Cosmos Predict系列(约21亿参数)天下模子;通义万相的Wan 2.2(约50亿参数),是这三款中体量最大的一个,主打大范围文本-视频生成。这声势拿出来,基本即是把各人顶尖的天下模子防微杜渐了。
这三个Backbone不错在Flow-Matching解码器中进行解放切换。
啥情理?即是一个动作解码器(约1.1亿参数),喂给这三个天下模子都能用。
AI生成
斥地者想对比不同天下模子在解除个任务上确切认,一键切换就行了。
考研模式切换也作念到了极致简化。
一条号召,就能通过妥洽树立进口切换考研模式,只需要浅易修改树立文献即可运行。
RL Token:强化学习+VLA的黄金组合智时时自创立起,便细则了构建物理天下大模子的中枢时期地方,在行业尚未酿成共鸣前,起原布局VLA架构。这些年对VLA的征询一直莫得停驻。
在濒临VLA结合强化学习的征询地方时,斥地者时常要濒临两座大山:动辄数十亿参数带来的极低的推理效能的门槛,以及微调时极易激发的“不应允性淡忘”发愤。
RL Token则是冲破这一僵局的“黄金组合”,亦然让大模子确切可落地的场景化利器。
智时时起原在LIBERO环境上完成了该路子的考证,并建议了一套对斥地者极其友好的开源优化决议。
这套决议的中枢突破在于:
1、信息瓶颈编码与VLA主体冻结
为了解决算力支出和淡忘问题,决议引入了信息瓶颈编码器与两阶段考研政策。
在RL微调阶段,巨大的VLA主体参数被全都冻结。这不仅守住了模子原有的通用智商底线(幸免不应允性淡忘),更让考研的贪图成本已矣了断崖式下落。
2、镌汰RL的考研门槛
通过架构优化,系统所需考研的参数目从正本巨大的3.9B骤降至约137M(仅占VLA总参数的3.5%)。
更硬核的是,在试验的强化学习梯度更新方式,仅波及极轻量的1.3M参数。
这意味着,斥地者不需要巨大的算力集群,仅需单张普通铺张级RTX 4090显卡,就能跑通VLA的强化学习后考研(Post-training)。
3、告别推翻重来,已矣“康健进化”
换句话说,深广斥地者不错在不防碍模子原有智商的前提下,对特定任务进行低成本优化。
大模子终于不错像东说念主类同样,在已有的丰富告诫基础上继续精进,而不是每次碰到新场景都反复推翻重来。
这套决议解说了强化学习+VLA这对黄金组合,不错让每个行业、每个场景都用它来定制我方的“闪耀活的AI”。
抓续学习:数据激流下的“不会忘”工程机器东说念主一朝真实部署,每天都在产生新场景、新任务、生手段。
传统考研模式有个老浩劫问题——学新的忘旧的,也即是业内公认的“不应允性淡忘”。
要作念通用智能机器东说念主,抓续学习(Continual Learning,CL)是绕不开的底层智商。
AlphaBrain Platform在这一块作念了相比系统的工程化使命:把CL从“单模子上的征询玩物”推向多架构可复现的对比平台。
时期亮点主要有3个:
1、多架构横向对比
现时前沿的VLA架构——QwenGR00T、NeuroVLA、LlamaOFT、PaliGemmaOFT——都被纳入了解除套CL考证历程。
每个架构上都跑了全参与LoRA两种考研变体,酿成妥洽基准下的横向对比,而不是只在某一个backbone上秀单点效果。
2、跨架构解耦:算法和模子互不侵入
CL算法接口和业务模子全都解耦——换backbone成本极低。
想把Experience Replay换成别的CL行动?已矣一个妥洽的玄虚类,所有架构即可自动适配。
LoRA的注入、保存、加载合并也抽成孤苦模块,对外只走漏极少澄莹API。
也即是说,算法征询者不必啃每个VLA的已矣细节,模子斥地者也不必挂念CL算法里面若何跑,两边各司其职,互助成本降一档。
3、开箱即用的考研-评估链路
从考研一条号召启动,到矩阵评估、淡忘分析出扫尾,整套pipeline有配套的wrapper和文档。
LoRA路子下的checkpoint体积也显赫小于全参版块,对显存和存储更友好,更多征询者能在我方机器上复现和二次改良。
一言以蔽之,以前作念“一个模子连气儿学多个任务还不忘”这类实验,光搭环境就够折腾一阵。
目下这套器具链把门槛降了一档:已矣了一键切换架构、可复现、可对比、可彭胀。
类脑模子:VLA的改日前边讲了“想得远”和“学得快”,但确切让机器东说念主像东说念主类同样“边干边学、越干越颖悟”的,还得是类脑贪图。
智时时此次拿出来的euroVLA,是各人首个复旧在公开基准上考证的类脑具身开源模子。
它不是浅易贴个“类脑”标签,而是从底层架构上,向生物脑的学习机制迈了一大步。要害的遐想有4个:
1、脉冲神经辘集(SNN)动作头
传统AI输出的是连气儿数值,像开关同样,要么0,要么1。NeuroVLA引入了LIF(Leaky Integrate-and-Fire)神经元,用脉冲编码来输出。
它在模拟生物神经元的“放电”机制。有刺激才发脉冲,没刺激就歇着,更像东说念主脑的使命方式。
2、R-STDP考研算法
这名字听着复杂,中枢就一件事:让机器东说念主能从“成败”中学习。
它复旧反向传播+STDP的羼杂模式,以及纯STDP模式。
奖励信号会调制神经元的趋附强度,作念对了就强化,作念错了就弱化。这即是生物大脑里的“用进废退”。
3、在线STDP测试时自合乎
大多数模子部署后就定型了,碰到新环境只可认栽。
但NeuroVLA不同样,它在运行阶段不需要反向传播,只靠环境交互产生的自监督奖励信号(比如状况展望准不准、动作顺不顺滑),就能及时更新SNN权重。
要害是,零格外贪图支出。也即是说,机器东说念主一边干活一边学习,还不费算力。
4、GRU-FiLM动作精修模块
SNN输出之后,还有一个“精修师”在把关。
GRU-FiLM模块会基于机器东说念主现时的试验状况(比如枢纽角度、速率),对动作进行条款性修正。粗调之后再来个精调,动作精度奏凯拉满。
简言之,以前的机器东说念主,出厂啥样就啥样,碰到新场景只可傻眼。
NeuroVLA这套决议,让机器东说念主领有了“终生学习”的智商,不仅边干边学、越干越顺遂,学习成本还简直为零。
这不即是生物大脑最中枢的上风吗?
这个“顶配全家桶”,不错用来作念什么?聊完时期,咱来说一个更试验的问题:这个“顶配全家桶”到底能拿来干啥?
四个字:拿来就用。
各人范围内,只好两家创业公司能把VLA模子作念到开源,一家是智时时,另一家是Pi。
但和Pi开源单个模子不同,智时时此次玩了把大的,把我方家的模子和其他头部模子盛开集成。
最牛的模子,迅速能用。它开源了我方起初进的三个“各人首个”模子、不必调依赖,奏凯上手。
哪个模子好,斥地者一测便知。 妥洽Benchmark,一键评测。天下模子A和天下模子B谁更强?跑一下就知说念了,不必我方搭擂台。
况且,它把路奏凯给斥地者们铺好了:从数据到考研,从架构到测试,场景落地,有一整套器具链。
更狠的是,铺张级显卡就能跑,需考研参数镌汰到正本的3.5%。
想适配我方的机器东说念主?低成本强化学习后考研微调,快速责罚。
类脑贪图、天下模子、RL+VLA黄金组合——这些正本只存在于顶尖实验室的前沿时期,目下开源社区里就能拿到。
最改日的黑科技,奏凯领有。
和Pi一双比,方式大小立见。
前者让你“有一个模子不错用”,但智时时让你“有多个模子不错选,况且能复现、能对比、能落地”。
那时期门槛被降下来,更多东说念主能参与,行业共鸣也会更快酿成。
开源这件事,智时时不是第一次干了。
看成各人具身智能大模子的领跑者,智时时自主研发的AlphaBrain,奋发于于为通用智能机器东说念主提供“最苍劲脑”。
早在2024年6月,智时时就扔出了AlphaBrain的初期版块,这亦然该公司首个开源的VLA模子。
那时有个数据挺故情理:模子范围只好谷歌同类的1/20,但性能反超了80%。
这波操作奏凯入选了NeurIPS 2024,连图灵奖得主Yann LeCun都公开蔼然并援用了。
到了2025年7月,智时时推出了快慢系统深度和会的新一代VLA架构,这是业内首个“异构输入+异步频率”的双系统VLA模子,性能奏凯至极国外标杆Pi0达30%。
它更以117.7 Hz的超高截止频率,再行界说了机器东说念主“又快又颖悟”的可能性。
当行业近期运转热议“天下模子”时,智时时早在2023年下半年便起原建议:天下模子不应是VLA的外接模块,而应深度内生于模子之中。
基于这一前瞻默契,AlphaBrain在2025年11月吸纳了新一代架构Video2Act的最新后果——已矣“先展望、后实践”。
如今,智时时再次引颈突破——开源了各人首个类脑VLA模子(NeuroVLA),并将其融入AlphaBrain。
从AlphaBrain再到今天的AlphaBrain Platform,智时时走了一条“先我方跑通,再开源给所有东说念主”的路。
“最像特斯拉”的中国机器东说念主公司说真话,智时时此次把这样多好东西奏凯摊在桌上,我属实没猜测。
它为啥敢这样干?到底什么来头?
成本和产业界给智时时贴过解除个标签:“最像特斯拉”的中国机器东说念主公司。
因为端到端的念念考最早由自动驾驶行业建议,特斯拉是最早走端到端大模子时期路子的企业。
智时时则是东说念主形机器东说念主赛说念,首家引入该理念的公司。
创业之初,智时时即是奔着“物理天下大模子”去的,明确坚抓VLA时期路子,是行业中最早股东具身大模子从办法走向落地的团队。
AlphaBrain禁受原创模子架构,领有完竣的数据-考研-迭代闭环体系,而非套用开源决议。
该公司首创东说念主兼CEO郭彦东,本硕就读于北京邮电大学,后赴好意思就读普渡大学电气与贪图机工程博士,师从AI范围的好意思国工程院院士Jan P. Allebach和Charles A. Bouman。
他还曾在微软好意思国征询院参与过深度学习时期研发。
归国后,郭彦东担任过小鹏汽车和OPPO的首席科学家与研发高管,曾主导数亿台智能终局的AI研发使命。
2021年,郭彦东获取中国图像与图形学会时期发明一等奖,并在国外顶级期刊上发表了100余篇论文(被援用超万次)。
2025年,他被任命为香港科技大学(广州)兼职磨真金不怕火,还入选当年福布斯中国科创东说念主物。
解除年,他的团队特殊十篇论文被顶级会议收录,仅NeurIPS就达6篇,辞天下模子、多模态结识与VLA地方抓续获取国外招供。
智时时不单好郭彦东镇守,还领有最高密度的科学家团队,其中有5位斯坦福各人前2%科学家。
来自微软、谷歌、OPPO、小鹏、Momenta,以及清华、北大、中科院、CMU、伯克利的成员也不少。
智时时最不同样的地方在于,它是行业稀缺的坐蓐力型通用智能机器东说念主玩家。不搞饰演、不堆demo,专攻确切闪耀活、能托福的机器东说念主。
AI公司容易犯一个症结:模子很牛,但落不了地。
智时时的首创团队脱胎于手机和汽车产业,对“端侧智能”和“范围化量产”的结识简直是刻在骨子里的。
他们太明晰什么叫“要在真实产线上扛住压力”。
他们打造的轮式通用智能机器东说念主AlphaBot(爱宝),由AlphaBrain大模子驱动,2025年运转在工业场景范围化诈骗。
是以你会看到这样的数据:
2025年9月自建产线启用;同月,与各人前三的液晶面板厂商惠科签了5个亿的大单。这亦然各人坐蓐力型机器东说念主最大的单一订单;2025年12月,单月百台级AlphaBot 2真实托福;2026年产线宗旨扩至万台范围。奏凯把“演示型机器东说念主”和“坐蓐力型机器东说念主”划清了界限。
看成工业场景除外的第二增量弧线,2025年底,其推出的各人首个模块化具身智能工作空间“智魔方”,已在北京、深圳、上海、贵州、福建等多地常态化运营。
终末说两句,智时时之是以敢和以前所有开源都不同样,是因为它不想只秀肌肉,更想作念圭表的制定者。
中国具身智能的开源竞赛,仍是插足头部玩家的卡位阶段。
智时时这一拳,打得很重。
开源社区邻接:https://www.alphabrain-platform.com/开云体育