引言:一场估值飙升330%的豪赌
2026年4月17日,Cerebras Systems向SEC提交IPO申请,计划以"CBRS"代码登陆纳斯达克,目标融资30亿美元,估值达350亿美元。
这个数字本身就是一个故事。2025年10月,Cerebras撤回上一次IPO时估值仅81亿美元。短短半年间,估值暴涨330%。推动这一飞跃的核心引擎,是与OpenAI签订的超200亿美元多年合作协议,以及与AWS达成的芯片供应协议。
我的判断:Cerebras的IPO不仅是一家公司的资本化事件,更是AI芯片行业从GPU单一霸权走向多元竞争的标志性时刻。
晶圆级引擎:疯狂还是天才?
Cerebras的核心技术路线在整个半导体行业中独一无二——用一整张12英寸晶圆制造单颗芯片。
| 参数 | Cerebras WSE-3 | NVIDIA B200 | 倍数差异 |
|---|---|---|---|
| 芯片面积 | 46,225 mm² | ~824 mm² | 56x |
| 晶体管数量 | 4万亿 | 2080亿 | 19x |
| AI核心数 | 90万 | 18,432 CUDA + 1,536 Tensor | ~49x |
| 片上SRAM | 44 GB | 192 MB | 228x |
| 内存带宽 | 21 PB/s (片上) | 8 TB/s (HBM) | ~2,600x |
| 制程节点 | TSMC 5nm | TSMC 4nm | 落后1代 |
数字令人瞠目,但魔鬼在细节中。WSE-3的优势集中在片上内存带宽——这恰好是LLM推理的核心瓶颈。当模型参数需要反复从内存读取时,44GB的片上SRAM和21 PB/s的带宽意味着Cerebras在推理场景下可以实现远超GPU集群的延迟表现。
但代价同样巨大:
- 良率问题:一整张晶圆上的任何缺陷都可能影响整颗芯片,Cerebras必须依赖冗余设计来规避
- 散热挑战:46,225 mm²的芯片散热是工程噩梦
- 生态壁垒:整个软件生态都是围绕CUDA/GPU构建的,迁移成本极高
异构推理:真正的范式转移
如果说Cerebras代表的是"做更大的芯片"这条路径,SambaNova与Intel的合作则代表了另一条同样重要的路径——异构推理。
SambaNova和Intel最近发布的异构推理蓝图,核心思想是将LLM推理的不同阶段分配给不同的专用硬件:
- Prefill阶段(处理输入prompt):计算密集型,适合高算力加速器
- Decode阶段(逐token生成):内存带宽密集型,适合高带宽低延迟硬件
这不是小修小补,而是对"一种芯片打天下"理念的根本挑战。在传统的GPU部署中,同一块H100/B200既要处理prefill又要处理decode,两个阶段的硬件需求截然不同,导致资源利用率永远无法最优。
异构推理的逻辑与CPU的大小核设计异曲同工:不是每个任务都需要同样的硬件,与其做一个万能但妥协的方案,不如让专用硬件各司其职。
TSMC:沉默的王者与清醒的判断
在这场AI芯片狂热中,TSMC的态度值得玩味。
2026年Q1财报发布会上,CC Wei又一次交出了超指引的成绩单。但Stratechery的Ben Thompson敏锐地指出:TSMC的管理层似乎并未真正买入AI增长叙事。
这是一个值得深思的信号。作为全球最先进的芯片制造商,TSMC比任何人都更清楚真实的产能需求。如果连TSMC都对AI芯片的长期需求保持谨慎,那么Cerebras 350亿美元的估值是否过于激进?
更有趣的是CC Wei对Elon Musk的隔空回应:“建造晶圆厂没有捷径。“这句话既是对Musk试图快速建厂的警告,也是对整个行业的提醒——半导体制造是一个需要数十年积累的领域,不是靠砸钱就能加速的。
牛熊辩论:Cerebras值350亿吗?
看多逻辑
- OpenAI的200亿美元订单是硬订单,不是意向书,提供了巨大的收入可见性
- 推理市场爆发:随着AI agent和推理密集型应用的普及,推理计算量将远超训练
- AWS合作验证了其企业级可靠性
- 先发优势:晶圆级芯片的工程壁垒极高,短期内无人能复制
看空逻辑
- 客户集中度危险:如果OpenAI的需求或战略发生变化,Cerebras将面临灾难性风险
- CUDA生态护城河:NVIDIA的真正优势不在硬件,而在数百万开发者的生态锁定
- 制程落后:WSE-3使用5nm,而NVIDIA已在用4nm,未来还有3nm和2nm
- 估值脱离基本面:330%的估值跳涨更多是AI叙事泡沫的产物
我的判断:Cerebras在推理场景有真实的技术优势,但350亿美元的估值已经计入了过多乐观预期。合理估值区间在150-200亿美元。IPO后大概率会经历估值回调。
更大的图景:GPU霸权的终结
无论Cerebras的IPO结果如何,它所代表的趋势是不可逆的——AI芯片行业正在从NVIDIA GPU的单一霸权走向多元化竞争格局。
这个趋势有三个驱动力:
- 推理 vs 训练的分化:训练和推理对硬件的需求差异越来越大,一种芯片无法同时最优化两者
- 成本压力:企业无法持续承受NVIDIA的高溢价,需要替代方案
- 供应链安全:将整个AI基础设施押注在单一供应商上的地缘政治风险越来越被重视
未来3-5年,我预测AI计算市场将形成三极格局:
- NVIDIA:凭借CUDA生态继续统治训练市场,但推理份额将被蚕食
- 专用推理芯片(Cerebras、Groq等):在推理场景形成差异化竞争力
- 异构方案(SambaNova+Intel模式):成为大规模部署的主流架构
对读者的建议
- 开发者:开始关注非CUDA的推理框架,至少了解ONNX Runtime和OpenVINO
- 投资者:关注Cerebras IPO后的Lock-up期结束,那可能是更好的入场时机
- 企业决策者:现在就开始评估多芯片推理部署策略,不要把鸡蛋放在一个篮子里
参考来源
- TechCrunch: AI chip startup Cerebras files for IPO
- 钛媒体: AI芯片格局生变:Cerebras再迎IPO大考
- SemiWiki: Disaggregating LLM Inference: Inside the SambaNova Intel Heterogeneous Compute Blueprint
- Stratechery: TSMC Earnings, New N3 Fabs, The Nvidia Ramp
- SemiWiki: TSMC to Elon Musk: There are no Shortcuts in Building Fabs!