首页| 论坛| 搜索| 消息
主题:黄世忠║人工智能的十大ESG风险:解构与缓释
爱我中华发表于 2025-12-01 19:59
编程者设计出来的,而是来自AI在数据中自行识别的模式。此外,基于知识产权和商业机密的考虑,企业开发的许多算法不对外披露,算法审查困难重重,进一步加剧了黑箱问题。如果缺乏有效的问责机制,AI很可能以隐蔽的方式加剧各种歧视现象。
UNHRC的报告还特别举例说明了AI在执法、安全和刑事司法系统、教育和医疗保健三个领域的歧视性应用。例如,一些执法机构从种族歧视的角度,蓄意针对特定群体或社区过度使用人脸识别、预测性警务算法等进行AI监控,导致执法不公。
联合国教科文组织(UNESCO)发布的《挑战系统性偏见:大语言模型的性别偏见》研究报告则聚焦于算法带来的性别歧视问题,其核心发现包括:在性别词汇联想任务中,大语言模型更倾向于将性别化名字与传统角色相关联,女性名字常与“家庭”“家人”“孩子”关联,男性名字则常与“商业”“高管”“薪水”“职业”关联。在文本生成任务中,当提示大语言模型补全以人物性别开头的句子时,Llama 2模型约20%的生成内容存在性别歧视与厌女倾向,出现诸如“女性被视为性对象和生育工具”“女性被视为其丈夫财产”等表述。在性取向相关内容生成中,Llama 2模型针对同性恋群体生成负面内容的比例约为70%,GPT-2模型的这一比例约为60%。最后,在提示包含“性别—文化—职业”交叉维度的内容生成任务中,结果显示AI生成内容存在明显偏见,模型倾向于将更多样化、更专业化的职业(如教师、医生、司机等)分配给男性,而对女性分配刻板印象化、传统上价值较低且具争议性的职业(如妓女、家政服务人员、厨师等)。这一现象反映出在基础大语言模型中,性别与文化刻板印象已形成更广泛的固化模式(UNESCO,2024)。
(二) AI滥用:威胁市场秩序和公共利益
AI的初衷在于提升工作效率、优化决策程序、改善生活品质,但当技术缺乏伦理约束和法律规制时,AI便可能沦为资本与权力的工具,在算法杀熟、网络诈骗、员工监视等场景中展现出令人不安的滥用倾向。AI滥用将挑战市场秩序、威胁公共利益。
算法杀熟是AI在商业领域最受诟病的滥用行为。一些平台型企业通过深度学习用户消费数据,精准识别价格敏感度低、忠诚度高的熟悉客户群体,收取高于其他客户的价格,电商、网约车、旅游等平台的AI系统甚至能根据用户手机型号、浏览时长等微观特征动态调整定价。这种“千人千面”赤裸裸的价格歧视,其本质是利用信息不对称将消费者剩余转化为企业盈余。当歧视性算法将AI技术异化为榨取用户价值的工具时,市场经济的公平交易原则将遭受严重冲击。
AI驱动的网络诈骗则呈现出产业化、场景化特征。生成式AI能在短时间内快速伪造出具有受害者亲友声纹的求救语音,深度合成技术可让诈骗分子在视频通话中“化身”为执法人员。当诈骗脚本能根据受害者的社交媒体动态实时调整话术,当AI客服能用方言与老人拉家常时,技术便会从犯罪工具沦为犯罪共谋。
在职场领域,AI监视系统正将泰勒主义演绎成数字极权。一些企业在员工电脑中安装行为感知系统,能够通过键盘敲击频率、鼠标轨迹停顿时间等参数推算出员工的敬业度和勤奋度,甚至根据使用卫生间的频率和时长做出“偷懒预警”。一些物流企业的AI能实时追踪仓库工人的手部动作,若员工在货架前停留超过特定时长便触发效率异常警报。在工作场所滥用AI技术,无异于将劳动者异化为机器人,严重侵犯了劳动者的隐私和尊严。
(三) 数据安全:AI时代的隐私权危机
AI技术高度依赖对海量数据的收集、分析和利用,使得数据安全与隐私保护面临着前所未有的挑战。在AI模型的训练过程中,数据的收集环节经常涉及数据安全与隐私保护问题。以面部识别AI系统为例,部分企业在未经授权的情况下,擅自在公开场所大量采集公众照片,并将其用于模型训练,这种行为严重侵犯了公众的隐私权。此外,在数据存储环节,潜在的漏洞也会带来隐患。例如,应用AI的医疗机构其数据一旦泄露,患者的病历信息就很可能流入黑市,这将严重侵犯患者的隐私权,甚至引发公众对医疗行业的信任危机。
生成式AI的快速发展进一步加剧了隐私权风险。通过提示词攻击等手段,攻击者可以诱导AI输出训练数据中的敏感信息,这些信息可能包括个人身份证号码、银行账户等极为重要的隐私内容。此外,“去标识化”数据往往可以通过交叉验证等手段还原出个人身份,使传统的隐私保护手段失效。在AI应用日趋普及的情况下,如何避免数据安全保护不足带来的隐私侵权行为,已经成为亟待解决的重要治理问题。
五、AI的ESG风险缓释建议
要化解AI十大ESG风险,必须整体推进、综合治理。唯有同时在环境议题、社会议题和治理议题采取缓释举措,才能实现技术创新与科技向善相得益彰,才能使AI成为经济、社会和环境可持续发展的造福者。
(一) 在环境议题上,推动AI向绿色化与循环化转型
AI发展过程中潜藏的“三高”(高耗电、高耗水与高排放)现象,正逐渐成为制约AI可持续发展的瓶颈。要破解这一难题,需从硬件和技术两大核心领域同步发力,推动可再生能源的规模化应用,系统性降低AI产业全生命周期的资源消耗与环境影响。
在硬件领域,应重点推广以液冷服务器为代表的高效节能技术。相较于传统风冷服务器,液冷服务器可大幅提升散热效率,在保障服务器稳定运行的同时,大幅减少用电量,从而有效缓解数据中心这一“电老虎”带来的环境资源压力。当然,更重要的是增加零排放或低排放的绿电供应,一些AI头部企业正利用其雄厚的技术和财务实力发展小型核聚变等技术,一旦取得突破,就可以从根本上推动AI绿色化和低碳化。
在技术领域,应注重架构创新和算法优化。DeepSeek训练成本之所以远远低于GPT-4等AI模型,主要归功于通过采用混合专家模型(MoE)架构激活少量参数以大幅减少计算量,通过强化学习策略和优化算法技术大幅减少缓存量,计算量和缓存量的大幅减少意味着电力和水资源的节约。从表2可以看出,DeepSeek训练的耗电量只占GPT-4的5.6%。DeepSeek虽然没有披露耗水量,但考虑到耗电量与耗时量强关联,可以推断其耗水量也远远低于其他AI模型。
除技术创新外,还应推动AI相关行业向循环经济发展模式转型。一方面,要加大对服务器、算力芯片、数据存储设备等废旧AI设备的回收与循环利用力度,建立专业化的回收处理体系,通过拆解、修复、翻新等方式,提升设备零部件的回收率和再利用率,大幅减少电子废弃物的产生。另一方面,需规范电子废弃物的处置,采用无害化处理技术,避免重金属、有毒有害物质对土壤、水源造成污染,实现AI产业全生命周期绿色化。
在监管与标准建设方面,应加快完善可持续信息披露准则,提高AI数据中心的环境足迹信息披露的透明度。具体而言,需建立统一、规范的AI产业环境足迹核算与报告标准,明确碳足迹、水足迹及其他环境足迹(如矿物消耗和废弃物)的核算方法,要求AI企业定期公开数据中心的用电量、用水量、碳排放等关键信息,为绿色低碳转型提供数据支撑。
此外,应加大宣传力度,让使用者清楚地了解AI运用带来的环境资源代价。All About AI以ChatGPT为例,分析了用户向GPT-4o每次查询(Query)的环境成本:0.3瓦时的电消耗(这是标准文本查询的耗电量,而较长或包含多模态的查询,则每次的耗电量将增至2.5 ~ 40瓦时)和0.32毫升的水消耗。向AI每提问一次看似环境成本微不足道,但假设全世纪82亿人口中有20亿人使用AI查询,人均每天查询5次,每次查询问题的环境成本与ChatGPT相同,且全部为简单的文本查询,每度电的排放因子为0.6公斤C
下一页上一页  (4/6)
回帖(6):
6 # huwg
12-02 00:56
谢谢分享
5 # huwg
12-02 00:56
了解一下
4 # huwg
12-02 00:56
来看看了
3 # srwam
12-01 22:11
有可能的
2 # srwam
12-01 22:11
了解一下
1 # srwam
12-01 22:11
来看看

全部回帖(6)»
最新回帖
收藏本帖
发新帖