数字储能网讯:2025年年初,人工智能公司深度求索(DeepSeek)火爆出圈,迅速在全球范围内引发巨大关注。
此前人工智能领域公认的底层逻辑是——算力规模越大,大模型就越聪明,同时耗电量也就越大。过去几年,OpenAI、微软等行业巨头不断扩大算力规模,积极寻求新的电力来源,甚至把手伸向了已停运的核电站。而DeepSeek的出现四两拨千斤地打破了这种“越大越好”的论调。
DeepSeek的独特之处在于其开源、高性能、低成本。据DeepSeek公布的数据,在成本方面,DeepSeek-V3的训练成本仅为557.6万美元,而GPT-4o的模型训练成本约为1亿美元。
在性能方面,独立机构Artificial Analysis的测评报告显示,DeepSeek-V3的评估质量指数为79,高于平均水平。模型在通识和专业知识测试集上表现优秀,并且在数学和代码领域测试表现突出。DeepSeek首次证明了“低成本、高智能”的可能性。
然而,DeepSeek的节能特性是否真能降低大规模使用人工智能(AI)带来的能源消耗?关于这个问题,“杰文斯悖论”或许能给我们一些参考。英国经济学家威廉·斯坦利·杰文斯在1865年发表的《煤的问题》中指出,当使用某种资源的效率提高时,该资源的总消耗量反而可能会增加,而不是减少。例如,瓦特改良后的蒸汽机大幅降低了煤炭消耗,使得更高效的蒸汽机广泛应用在更多场景,导致英国的煤炭消耗总量激增。
技术进步的“回弹效应”在AI领域同样显著。截至2025年春节后,开源生态下,DeepSeek API(提供人工智能服务的接口)在腾讯云上的日均调用次数已达到5000万次,其总能耗可能在未来三年反超传统闭源模型。也就是说,人工智能的开源策略可能会带来更大的能源需求。
一方面,DeepSeek的开源策略降低了技术门槛,全球开发者可基于其模型快速构建定制化应用,推动AI从“巨头游戏”转向“全民参与”。这样一来,即使AI执行单次训练任务确实更省电,但各行各业大量使用AI还是会导致巨大的电力消耗。
另一方面,摩根士丹利指出,低成本模型让“非必须场景”变得经济可行。伦敦一家金融科技公司曾测算,使用传统大模型处理用户数据分析的月均电费高达1.2万英镑,而使用DeepSeek-R1模型可将成本压缩至2000英镑以下。成本下降后,该公司计划将AI应用场景从核心业务扩展至营销与客服,或将使总能耗增加30%。
当“比特”遇上“瓦特”,如何在提升人工智能算力的同时兼顾绿色低碳?业内人士给出了三个方向的建议:加强算法与硬件协同优化,减少无效计算,节省不必要的能源消耗;推动算力基础设施绿色化、规模化建设,推动清洁能源算力中心建设,实现绿色能源向绿色算力的转化;加强政策引导需求侧管理,例如欧盟拟对高能耗AI应用征收“算力税”,抑制非必要场景的扩张。但不同的声音也同样存在:同一模型参数,用风电训练与煤电训练是否应承担差异税率?当能源结构成为AI竞争力的暗线,当国际贸易加征“算力税”,绿色算力是否会催生新的数字贸易壁垒?这些未竟之问正在等待更多充满智慧与勇气的解答。