来源:市场资讯
原载《财会月刊》2026年第01期
【摘要】人工智能(AI)作为新一轮数智化技术革命的主力军,不仅在提升全要素生产率、促进经济社会发展、重塑生产生活方式等方面发挥积极的作用,而且将赋能全人类积极应对气候变化。但AI在发展过程中潜藏的ESG(环境、社会、治理)风险逐渐显现,理应予以充分关注。本文系统解构AI的十大ESG风险。在环境议题方面,AI引发的芯片需求和算力扩张导致电力与水资源过度消耗,留下大量的碳足迹以及矿物消耗和废弃物等环境足迹。在社会议题方面,AI对就业岗位的挤出效应导致薪资与生产力进一步脱钩,加剧了劳动力市场失衡和社会不公平。在治理议题方面,算法歧视、AI滥用以及数据安全带来全新的治理挑战。缓释AI的ESG风险,确保AI健康可持续发展,必须推动AI向绿色化与循环化转型、完善就业保障和分配机制、强化伦理建设和建章立制。
【关键词】人工智能;环境风险;社会风险;治理风险;风险缓释【基金项目】国家社会科学基金项目“气候信息披露规则与产品碳足迹管理机制研究”(项目编号:24BGL094);国家自然科学基金项目“基于利益相关者视角的财务舞弊识别及应用”(项目编号:72172135)
一、引言
近年来,以ChatGPT和DeepSeek为代表的生成式人工智能(AI)技术取得重大突破,正以各种方式在制造业和服务业推广运用。麦肯锡针对16个业务领域中63个应用场景的研究显示,AI将显著提升全要素生产率、催生新业态新机遇,预计每年可带来2.6万亿 ~ 4.4万亿美元的经济增加值(McKinsey,2023)。除促进经济增长外,AI还可在工业生产能耗优化、智能电网高效调度、建筑能耗动态管控、交通运输减排提效、农业种植精准滴灌、研发设计提质增效、供应链协同化脱碳、碳足迹追踪与管理等领域进行技术赋能,为人类社会节能降耗、减少温室气体排放、共同应对气候变化提供技术支撑。但在看到AI对绿色低碳转型发挥促进作用的同时,也应充分关注杰文斯悖论(Jevons Paradox),客观评估AI发展的潜在不利影响。英国经济学家、逻辑学家威廉·斯坦利·杰文斯(William Stanley Jenovs)于1865年出版了《煤炭问题》(The Coal Question)一书,提出的观点彻底颠覆了人们对技术进步与资源消耗相互关系的认知。他指出瓦特通过改良蒸汽机极大提高了煤炭使用效率,大幅降低了煤炭使用成本,结果却导致煤炭总消耗量以前所未有的速度增长。他观察到的“效率显著提升——成本大幅降低——需求急剧增加——总消耗量不降反升”这一有违常理的“反弹效应”(Rebound Effect)被学术界称为“杰文斯悖论”。谷歌、苹果、微软等数字化平台企业近年来通过使用AI节能技术和清洁能源,虽然大幅降低了单位能耗和温室气体排放强度,但用电量、用水量和碳排放却呈上升态势,这雄辩地说明19世纪提出的杰文斯悖论到了21世纪依然存在。
联合国贸易和发展会议(UNCTAD)在《2024数字经济报告:打造具有环境可持续性和包容性的数字未来》(简称“UNCTAD报告”)中敏锐地指出,以AI、大数据、云技术、物联网为代表的数字化不仅留下了大量环境足迹(能源和材料消耗产生的碳足迹、水足迹、矿物消耗和废弃物等),而且加剧了社会不公平(UNCTAD,2024),提示我们在发展AI的过程中应当高度警惕AI可能给经济、社会和环境带来的意想不到的负外部性。AI迅猛发展和普及应用潜藏的ESG(环境、社会、治理)风险不容小觑,数据中心的耗电耗水和碳排放、劳动力市场的结构性冲击、算法应用的伦理争议等ESG问题,正成为制约AI可持续发展的瓶颈。加强这方面的研究,对于确保AI健康可持续发展意义重大。现有研究大多聚焦AI的技术创新与经济效应,对AI发展中的ESG风险进行系统分析的研究严重匮乏。本文系统解构AI发展中的十大ESG风险,剖析AI全生命周期的耗电耗水、碳排放以及矿物消耗等环境风险,分析AI对就业岗位产生冲击、生产力提升与劳动者报酬脱钩、马太效应加剧等社会风险,指出算法歧视、AI滥用以及数据安全带来的隐私权危机等治理风险,并从ESG的角度提出风险缓释建议,希望能为政策制定者提供风险预警,为企业和个人善用AI提供有益启示。
二、AI的环境(E)风险:算力扩张的生态代价
AI的有效运行高度依赖海量数据处理与高强度算力支撑,从软硬件生产到模型训练再到问题推理的全生命周期,均带来巨大的环境资源压力。概而言之,AI的环境(E)风险主要体现在电力消耗、水资源消耗、碳排放、矿物消耗与废弃物四个方面。
(一) 电力消耗:AI的尽头是电力
首先,AI相关的硬件制造属于能源密集型环节,但在整个生命周期中其能耗低于运营阶段。硬件制造最耗电的是芯片制造(含GPU/TPU,即图形处理器和张量处理器)以及数据存储设备制造环节。国际能源署(IEA)于2025年4月发布的《世界能源展望特别报告:能源与人工智能》(简称“IEA报告”)显示,以目前最先进的3纳米芯片为例,每片晶圆的制造过程需消耗约2.3兆瓦时(2300度)电能。对于高性能的服务器配置,制造环节的能耗超过10兆瓦时,而五年使用周期的运营能耗则超过80兆瓦时。在制造环节的总能耗中,约60%的能耗用于晶圆及半导体生产(沉积、光刻和蚀刻工艺占主要部分),其余40%的能耗主要用于设施冷却等辅助流程(IEA,2025)。
绿色和平组织于2025年5月发布的《人工智能环境影响报告》(简称“绿色和平组织报告”)指出,2023年全球半导体行业消耗了超过100太瓦时(1000亿度)电能,相当于全球制造业耗电量的1%(Green Peace,2025)。仅台积电2024年的耗电量就高达274.70亿度(TSMC,2025),相当于通用汽车同年在全球范围内生产和销售537万辆汽车耗电量的4.96倍(General Motors,2025),如表1所示。
其次,大语言模型的训练和推理极其耗电,堪称“电老虎”。斯坦福大学人工智能研究所发布的《2023年人工智能指数报告》显示,训练一次GPT-3的耗电量多达1.28吉瓦时(Stanford,2023)。更为严重的是,随着AI大模型参数规模从百亿级向万亿级突破,训练AI的能耗呈指数级增长。专注于AI环境资源影响的网站All About AI发布的《2025年AI环境统计》报告列示了五大AI模型训练的耗电量,如表2所示。
美国能源信息署(EIA)的数据显示,2024年美国家庭年平均耗电量约10500千瓦时,训练一次GPT-4的耗电量足够4762个美国家庭使用一年。值得注意的是,AI在响应用户查询和提问时进行推理的耗电量更加惊人,而推理约占AI能源消耗的60% ~ 70%②。AI的电力消耗已经引起公众的关注,OpenAI首席执行官萨姆·奥特曼(Sam Altman)2024年初在达沃斯会议上不得不承认,AI技术消耗的电力将远超人们预期。
数据中心是AI最重要的算力基础设施,AI的训练和推理主要在数据中心完成。根据绿色和平组织报告,全球AI数据中心耗电量占全球数据中心耗电量的比重将从2024年的16%猛增至2030年的53%(如图1所示),全球数据中心耗电量将从2024年的563太瓦时(5630亿度)猛增至2030年的1385太瓦时(13850亿度)(如图2所示)。若按53%的全球AI数据中心用电量占比测算,2030年全球AI数据中心耗电量(7340亿度)约占2024年日本耗电量(1.03万亿度)的71%、相当于德国耗电量(4640亿度)和英国耗电量(2510亿度)之和的103%。全球数据中心最近几年的耗电量之所以快速增加,最根本的原因是AI高速发展和大量普及。从表3可以看出,谷歌耗电量从2020年的151.26亿度增至2024年的321.06亿度,复合年均增长率为20.7%,其中数据中心的耗电量更是从2020年的144.26亿度飙升至2024年的308.26亿度,

