一、独辟蹊径的技术路线:为什么Cerebras敢造一整片晶圆当芯片
Cerebras的核心产品WSE-3(Wafer Scale Engine第三代)是当前全球最大的单颗芯片,尺寸达215×215毫米,相当于英伟达B200芯片面积的56倍。这不是堆砌噱头,而是对AI推理瓶颈的一次根治性回应。
英伟达GPU依赖外置HBM高带宽内存,推理大模型时大量时间消耗在数据搬运上。Cerebras WSE-3通过将44GB SRAM直接集成在单片晶圆上,实现了21PB/秒的片上内存带宽,是H100的数千倍,从根源上消除了内存墙瓶颈。
要实现晶圆级芯片的量产,Cerebras攻克了四大工程难题:
- 良率:利用冗余设计,90万个AI核中允许少量缺陷,实际利用率仍达93%
- 热膨胀:定制柔性连接器,吸收超大芯片高达100微米的热形变位移
- 供电:从晶圆背面垂直灌入电流,替代传统PCB横向走线
- 散热:微通道液冷直接覆盖晶圆背面,以毫米级精度带走2.3KW热量
这套方案并非颠覆物理定律,而是用现代工艺系统性地解决了40年前就有人尝试却失败的工程组合题。
二、推理赛道的结构性机会与清晰的边界
从美股投资的行情分析角度看,Cerebras的市场定位高度聚焦:推理,尤其是思维链(Chain-of-Thought)和Agentic推理工作流。
OpenAI的Codex Spark模型——历史上首个不跑在英伟达上的GPT模型——专为WSE-3定制,演示中其代码生成速度比竞品快20秒以上。这验证了Cerebras在长输出推理场景的速度优势:输出token越长,WSE-3的端到端延迟优势越显著。
但这条护城河有清晰的边界:
- 模型参数<70B时,整个模型可驻留片上SRAM,Cerebras几乎无对手
- 模型参数>70B时(如Llama 405B需要810GB内存),必须切换至流式加载外置内存模式,部署成本远高于英伟达GPU集群
这也解释了为何OpenAI与Cerebras首个落地产品是小模型Spark,而非GPT-5完整版。Cerebras的真实护城河在70B参数以下的高速推理场景,而非通用大模型训练。
三、财务解读:高增长背后的三重隐忧
从S-1招股书提取的关键财务数据显示增长势头强劲,但结构性风险不容忽视。
营收层面:2025年营收5.1亿美元,同比增长76%,三年增长约20倍,兑现了历年承诺。硬件占70%,云服务占30%。
盈利层面,三重压力叠加:
- 毛利率仅39%,远低于英伟达70%+的水平,根因在于晶圆级封装造价高、客户定价偏低、台积电SoW工艺产能溢价
- 研发投入占营收近50%(2.43亿美元),下一代WSE-4研发不能停,否则竞争窗口关闭
- 公司目前仍处于经营性亏损,2025年财报中3.91亿'其他收益'来自G42合同解除的一次性财务冲回,不具备可持续性
客户结构是最核心的风险点:G42与穆罕默德本扎耶德人工智能大学(MBZUAI)两家阿联酋关联方合计贡献86%营收,应收账款集中度更高达78%。2024年首次IPO正因此被CFIUS叫停。2025年重启IPO的结构调整,本质上是将单一依赖拆分为两个关联方依赖,集中度并未实质改善。
四、OpenAI绑定:成败一体的双刃剑
Cerebras估值从230亿跃升至350亿的核心驱动力只有一个:与OpenAI签署的总价值200亿美元的战略合作协议。关键条款包括:
- OpenAI承诺2026-2028年部署750兆瓦推理算力
- OpenAI提供10亿美元运营贷款(年息6%,2032年到期,可用算力服务抵债)
- Cerebras向OpenAI授出覆盖公司13%-17%股份的认股权证,行权价近乎为零,但须按里程碑解锁
这是一份成败捆绑的资本结构:OpenAI需要Cerebras成功才能兑现算力部署承诺,Cerebras的估值逻辑也高度依赖OpenAI不撤单。
但风险同样致命——OpenAI是一家习惯与多方签署大额框架协议的公司,合同存在触发条款后退出的选项。一旦OpenAI撤出,在当前客户高度集中的背景下,Cerebras将面临灾难性的营收真空。
五、投资结论:高Beta主题仓位,两个前提缺一不可
Cerebras不是防御性资产,而是一笔典型的高Beta美股投资主题,押注的是两个同时成立的前提:
- AI推理与Agentic工作流确定性地大规模迁移,形成结构性算力需求
- Cerebras能在2027年前按时交付下一代WSE-4,在英伟达SoW-X封装技术成熟前守住技术代差
两个条件缺一,投资逻辑即告瓦解。对于美股投资者而言,这是一个值得以不超过总仓位5%的小仓位参与、同时做好长期持有或大幅回调心理准备的标的——而非重仓押注的确定性机会。