随着人工智能技术的飞速发展,AI已经成为我们工作生活中不可或缺的一部分。然而,这位“伙伴”的背后,隐藏着一个日益凸显的问题——电力消耗。
AI技术不断进步的同时,能源消耗和碳排放问题日益凸显。特斯拉首席执行官马斯克和OpenAI首席执行官山姆·奥特曼都曾预警,未来AI的发展可能会受到电力供应的限制。
AI真的会缺电吗?

AI的电力需求将在未来几年内急剧增长。
根据数据显示,ChatGPT响应一个请求的平均耗电量相当于将一个60瓦的灯泡点亮略少于三分钟的时间,这几乎是一次谷歌搜索查询平均耗电量的十倍。
据芯片设计公司Arm首席执行官Rene Haas预测,如果不提高效率,到2030年人工智能数据中心的耗电量可能占美国电力需求的20%-25%。目前,这一比例可能仅为4%或更少。尽管目前AI在整体电力消耗中所占比例较小,但随着AI应用的普及和算力需求的增长,电力供应可能成为制约AI发展的关键因素。
AI大模型的训练和运行不仅消耗大量电力,还伴随着显著的碳足迹。GPT-3模型在训练期间释放了502公吨碳,这一数字相当于8辆普通汽油乘用车一生的碳排放量。
不光是耗电,还耗水。加州大学河滨分校研究显示,ChatGPT每回答20-50个问题,就要消耗500毫升水。考虑到AI应用的高频互动特性,这可能导致大量的水资源被用于算力设备的冷却需求。
AI发展的未来面临着能源和环境的双重挑战。为了实现可持续发展,目前,英伟达推出的新GPU产品Blackwell,通过使用新的架构,能耗降低了70%以上。这样的技术进步有助于降低AI的能源消耗,缓解电力供应的压力。
中国是如何应对这一问题的?

面对“缺电”挑战,中国的解法之一就是“东数西算”工程。这项工程通过优化数据中心的地理分布,实现算力资源的高效利用和绿色发展。该工程利用西部地区丰富的可再生能源和较低的运营成本,将数据中心迁移至电力资源充足且成本较低的地区,并推动绿色算力产业的发展。
以青海省为例,该省拥有丰富的绿色电力资源,清洁能源装机超过5100万千瓦,占比92.8%。而中国电信(国家)数字青海绿色大数据中心,已经实现了数据中心的100%清洁能源供应。通过将数据中心迁移至青海,不仅能解决电力问题,还能利用当地干燥、冷凉的气候条件,大幅降低散热能耗。
通过优化资源配置,中国正在积极探索一条可持续发展的AI算力之路。未来,随着技术的不断进步和能源结构的优化,我们相信,AI的发展将更加绿色、高效,为社会带来更多的“AI”红利。
(数据来源:央视新闻客户端、财联社、钛媒体)
编辑 张铃佳 审读 郭建华 二审 林嘉嘉 三审 刘思敏