手机版 客户端

AI 用电有多夸张? ⚡

[复制链接]
Bulin-周 发表于 2026-3-7 | 显示全部楼层 |阅读模式
ChatGPT 一次查询 ≈ 10 倍 Google 搜寻耗电
一座大型 AI 资料中心 ≈ 5 万户家庭用电
训练 GPT-4 等级模型 ≈ 10 万张 GPU
1 万张 H100 GPU 集群 ≈ 30–40MW 电力。机构预估未来 5 年全球 AI 电力需求可能增加 2–3 倍,这也是为什么市场开始同时关注 算力、记忆体与电力三条主线。现在 AI 的瓶颈,可能不只是晶片,而是电力供应能力。

从投资角度看,这条产业链已经开始被重新定价:NVDA 现价约 177–178 ,短期支撑在 175 左右;MU 约 410–415 ,不少资金关注 360–380 的回踩区域;而 AI 电力链条中 VRT 约 245 、CEG 约 319 。简单说,AI 产业链最核心的其实只有三样东西:算力(NVDA)、记忆体(MU)、电力(VRT/CEG)。过去两年市场只在炒晶片,但未来几年,真正可能限制 AI 成长的,很可能是电力。

我平时会在美股频道里更新宏观节奏和核心个股的区间判断,关注的话可以进来一起交流。
点击这里直接进入频道,交易日免费每天分享正股期权!!!


联系我时,请说明是从纽约华人生活网看到的,谢谢!
回复

使用道具 举报

全部回复0 显示全部楼层
返回顶部 返回列表