人工智能为何如此耗电
I尽头是电力,随着I技术的广泛应用和深入发展,其背后的算力需求激增,进而引发了全球对数据中心及计算设备能耗激增的广泛关注。据权威统计数据显示,I技术的普及与应用已显著推动了全球数据中心能耗的攀升,成为能源特别是电力消耗的一大推手,这也是人们在追求科技进步的同时,需要亟待解决的重要议题。
全球I耗电现状
总体来看,伴随着人工智能技术的迅猛发展,以及产业指数级增长,作为重要支撑的数据中心耗电总量和占比大幅上升。据测算,I大语言模型GPT-3一次训练的耗电量就达1287兆瓦时,大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里所耗电量的总和。ChatGPT按每天响应约2亿个请求计算,这一过程消耗超过50万度电。国际能源署2024年1月发布报告称,2022年全球数据中心的总耗电量约460太瓦时(1太瓦时=1×10?千瓦时=10亿度),约占全球用电量的2%;到2026年,这一数据将超过1000太瓦时,大约是整个日本2022年全年的用电量。与此同时,大量的碳排放和数百万加仑淡水的消耗也不容小觑。
欧美等国家I耗电形势严峻。以跨国公司数据中心“扎堆”的爱尔兰为例,数据中心的耗电量已超过该国所有城市家庭用电量的总和,占比约为21%。波士顿咨询集团则预计,到2030年,美国数据中心的用电量将是2022年的三倍,而这一增幅主要来自人工智能。OpenI首席执行官萨姆·奥特曼和特斯拉首席执行官马斯克都曾多次表达了对电力供应的担忧。
从中国来看,I耗能问题也是日益严重。2022年全年,我国数据中心耗电量达到2700亿千瓦时,占全社会用电量约3%。预计到2025年,这一占比将提升至5%,到2030年全国数据中心耗电量将接近4000亿千瓦时,数据中心的节能降耗迫在眉睫。数据中心是数字经济发展的基石,从全国一体化大数据中心体系构想到部署“东数西算”,数字中国战略持续深化落地,算力不断提高,必然需要更高的能源电力,7×24小时连续运行,电力成本占运营总成本的60%—70%,规模增长迅速。伴随着我国产业转型升级和数据中心规模不断扩大,耗电量会持续攀升。
总之,人工智能及支撑它的数据中心所带来的耗电问题困扰着全世界,是制约人工智能技术飞速发展的主要障碍之一。
I为何成为耗电大户
(阅读全部图文内容,您需要先登录!)