elon musk 想白嫖一个 100 gigawatts (100吉瓦)的加速算力中心。
而且,这事情和所有 tesla 电车的用户都有关系。
1
elon musk 在第三季度财报电话会议上提出:
“如果我们有这么多车,它们可能闲置着,如果它们闲置着,我们可以拥有一个巨大的分布式推理集群”
“如果它们没有在积极驾驶,那就让它们成为一个巨大的分布式推理集群。”
“在某个时候,如果你有数千万辆车在这个车队中,或者在某个时候有 1 亿辆车,并且假设它们那时拥有,1 千瓦的高性能的推理能力,那就是 100 吉瓦的推理能力。”
“所以基本上,每辆车都有大约 1 千瓦的高性能人工智能推理能力,特斯拉就不需要建造巨大的数据中心——整个车队就是数据中心。”
2
这事情的本质是什么?
A:
elon musk 在设计的 AI5 和 AI6 加速算力芯片。elon musk 最终在 AI6 上的愿望就是用一个基本设计,覆盖加速算力中心,tesla 自动驾驶,擎天柱机器人的从云到端的加速算力需求(芯片的规格肯定有变化)。
而且,考虑分布式计算要求,这个 AI6 芯片的通讯能力会比较强。
B:
另外,理解这个,必须再考虑一个硅谷传说,就是 elon musk 也在参与一个 LLM 的分布式训练项目。他允许 LLM 的训练或者推理,分散到网络的不同设备进行。
C:
LLM 训练过程中有非常大的电力需求波动,所以 xAI 加速算力中心,匹配了 elon musk 的锂电池作为缓冲。而 elon musk 的 tesla 车载电池,应该会额外的考虑 AI5,AI6 的模型训练或者推理需求,对放电性能做一些对齐。
3
那么 elon musk 的方案是什么?
其实就是 A + B + C 。
电池性能更新,并且搭载了 AI6 芯片电车本质上,也是一个自带电池的显卡。
当所有的 tesla 汽车,擎天柱机器人都搭载 AI6 芯片,有足够快的联网速度,并且有高性能电池做缓冲的时候。。。
你把他们插电充电的时候,他同时也会联网,执行来自 xAI 的任务。。。
4
这对普通用户影响如何?
一个最直接的问题是,这事情消耗你的 tesla 汽车的电池循环,同时,在充电的时候,会产生额外的电力损耗。而且,还有额外的流量费用。
对于 telsa 或者 xAI ,凭空拥有 100吉瓦的加速算力网络当然是好事情。
但是用户不可能平白无故的付出这些电力费用,电池循环折旧和流量费用。
推测 elon musk 会为此给用户返点或者空投点什么好处平衡。

