扎克伯格称AI行业的算力瓶颈(GPU)已经缓解 最大问题在于能源供应

Meta AI 研究院推出开放的人工智能模型 Llama 这段时间获得开源社区的不少好评,有这样的实力也是一些机缘巧合,之前 Meta 购买大量英伟达的 AI 加速卡用来训练视频推荐算法,现在这些 GPU 被用于人工智能模型的训练。

相较于其他公司有少量、高性能的英伟达 AI 加速卡,Meta 拥有的加速卡数量还是非常多的,尽管 Meta 也需要继续采购加速卡但迫切性没那么强。

所以扎克伯格日前在接受采访时就表示随着时间的推移 GPU 的紧缺将逐渐缓解,人工智能行业的增长和未来发展在短期内不会受到资本的约束,接下来的大问题其实是能源问题。

扎克伯格称AI行业的算力瓶颈(GPU)已经缓解 最大问题在于能源供应

扎克伯格观察到许多新建的数据中心能耗在 50~100 兆瓦之间,一些特别大的数据中心能耗可能达到 150 兆瓦,但这种能耗级别并不是最终规模。

接下来一些大型数据中心的能耗可能会迅速提升到 300 甚至是 500 兆瓦,而突破 1000 兆瓦的能耗似乎也只是时间问题,然而从哪里获得持续稳定的电力供应呢?

随着技术的发展指数级的人工智能训练,能源曲线可能会快速提升,这个问题最终会让能源供应成为焦点问题,因此扎克伯格认为能源生产可能很快就值得投资。

目前一些企业已经在探索新建核电站为大型数据中心供电,但新建发电站尤其是核电站在审批、规划、建设等方面都需要大量时间,所以即便企业有心发展自己的发电站,短时间内也还是得依靠外部供电。

另一方面就是能源性质问题了,传统的化石能源电站投产速度快但因为不符合主流要求因此可能不会得到太多关注,水力发电则受限于地理环境,对企业来说真正能够选择的其实并不多,包括风电、太阳能和核电,其中核电投入成本、周期都非常高,不过投产后稳定性也最好,不会受天气影响。

你可以在下面查看采访完整内容:

YouTube:https://www.youtube.com/watch?v=i-o5YbNfmh0


这是一个从 https://www.landiannews.com/archives/103858.html 下的原始话题分离的讨论话题