算力主权:开放模型与封闭晶圆厂之间的张力
开源模型降低AI门槛,但训练和部署仍依赖特定地区能源和制程。政策若仅补贴软件开源,可能低估硬件端的锁定效应。
过去两年,公开权重与开放推理框架显著降低了"能用上大模型"的门槛,但训练与大规模部署仍高度依赖特定地区的资源。本刊认为,算力主权的讨论需要更完整的框架。
现象分析
开源模型的进步
过去两年开源模型的显著进步:
| 维度 | 2025年 | 2027年 | 改善 | |------|--------|--------|------| | 主流开源模型参数 | 70B | 7B(量化) | 10倍效率提升 | | 推理成本(/token) | 0.1美分 | 0.003美分 | 97%下降 | | 部署门槛 | A100×8 | RTX 4090 | 消费级可运行 |
软件侧的开源运动确实降低了AI使用门槛。
但硬件侧的集中化
然而,硬件侧的反向集中化趋势:
| 资源 | 集中地区 | 风险 | |------|---------|------| | 先进制程(3nm以下) | 台湾(~60%)、韩国(~30%) | 地缘风险 | | GPU产能 | NVIDIA(~80%) | 供应链风险 | | 能源成本 | 北美(页岩气)、中东 | 能源安全 | | 数据中心用地 | 北欧(土地)、新加坡(网络枢纽) | 资源稀缺 |
剪刀差正在扩大,而非缩小。
政策工具的局限性
当前政策倾向
主要经济体的AI政策倾向于:
- 补贴模型开源:降低AI使用门槛
- 算力补贴:补贴企业使用算力
- 人才培养:支持AI教育
政策盲点
但这些政策忽视了:
- 能源投资周期长:一个数据中心从审批到投产需要3-5年
- 先进制程稀缺:全球能生产3nm芯片的晶圆厂不超过5家
- 电网冗余不足:AI算力需求增长超过电网扩容速度
厂房与能源的锁定效应:
- 数据中心建设需要土地、水资源、电力
- 先进封装产能集中于台湾
- 设备维护依赖原厂工程师(响应周期长)
更完整的分析框架
本刊建议,算力主权讨论应包含:
1. 能源维度
| 评估维度 | 关键指标 | |---------|---------| | 能源自给率 | 本地可再生能源比例 | | 电网冗余 | N+1或N+2备用 | | 能源成本 | $/kWh(含碳成本) |
2. 制造维度
| 评估维度 | 关键指标 | |---------|---------| | 制程分散度 | 各地区产能占比 | | 设备可维护性 | 工程师响应时间 | | 关键材料 | 稀有气体、靶材国产化率 |
3. 韧性维度
| 评估维度 | 关键指标 | |---------|---------| | 供应链冗余 | 单一来源依赖比例 | | 库存缓冲 | 安全库存周数 | | 替代方案 | 备用供应商验证 |
政策建议
若政策目标是真的"算力自主",需要:
- 能源侧:加速可再生能源基础设施投资
- 制造侧:支持成熟制程多元化,而非仅押注最先进节点
- 技术侧:发展功耗效率优化,降低绝对算力需求
结论
开源模型确实是降低门槛的好工具,但政策若仅聚焦软件侧,可能形成"接口开放、底座仍受制"的局面。
算力主权需要能源、制造、韧性三位一体的政策框架。
本文基于公开行业数据与本刊对供应链访谈,不构成投资建议。
免责声明
本文为站内演示稿件,与页首提示一致:内容可能为虚构或合成,请勿作为事实或决策依据。转载、引用时请勿当作真实报道。