具体工作任务的替代比例将进入上升通道,其对就业市场的实质性影响将显著增强。
关于AI对就业的影响程度,不同机构的研究结论不尽一致。2024年,美国商务部发布的就业市场调查报告显示,在制造业、服务业和财务管理等领域,AI的应用仍以赋能为主,短期内推动了岗位结构优化而非绝对数量减少,部分企业甚至因效率提升而扩大了招聘规模。然而,美国兰德公司同期发布的研究报告认为这种“AI促就业”的短期趋势难以延续。报告预测,未来5 ~ 10年全球就业市场将进入AI的集中替代期,届时替代范围将从低技能重复性工作,逐步延伸至法律文书处理、基础数据分析、初级设计等知识型工作领域,传统认知中不易被替代的岗位将不再具备天然优势(RAND,2025)。DeepSeek资深研究员陈德里持相同看法,他在2025年世界互联网大会上指出:未来3 ~ 5年为蜜月期,人类可与AI协同创造更大的价值;5 ~ 10年为风险上升期,开始出现岗位替代,失业风险上升;10 ~ 20年为秩序挑战期,AI可能取代市场上大多数工作,对现有社会秩序构成重大挑战④。
更需警惕的是,AI冲击下的就业市场可能面临结构性失衡风险。被 AI替代的劳动力群体,往往需要掌握全新的数字技能或跨领域能力才能重新进入就业市场,但受制于学习成本、学习能力、年龄门槛和技术迭代等因素,相当一部分劳动者难以在短期内完成知识更新和能力提升,导致部分群体长期被就业市场拒之门外,对社会就业稳定与收入分配公平构成潜在挑战。
(二) 薪资与生产力脱钩:分配机制的系统性失灵
薪资与生产力脱钩(Decoupling of Wages from Productivity)是指,技术进步提高了生产力却没有相应转化为劳动者报酬的增加,甚至导致劳动者报酬在收入分配中的占比不升反降,形成技术进步红利被截留的现象。尽管这种脱钩现象由来已久,但从图8可以看出,2018年以ChatGPT为代表的生成式AI加速了这种脱钩进程。究其原因:一是AI加剧了替代效应(Displacement Effect),即AI取代劳动力,减少对劳动力的需求,降低了劳动者的议价能力,从而抑制薪资的上涨;二是AI具有资本密集型特征,企业采用AI技术的核心目标在于降低成本、增加利润,当AI实现减员增效时,节省的成本大多流向财务资本所有者,而非人力资本所有者;三是AI技术迭代迅速,企业需要将运用AI实现的递增收益不断投入到技术研发和升级中,而不是用于提升员工薪资。换言之,在缺少政府等外部力量干预的情况下,AI的普及运用会导致分配机制的系统性失灵,古典经济学关于劳动者报酬水平与生产力提升密切相关的理论不再成立。
(三) 社会公平受损:AI时代的马太效应
在AI技术不断渗透到社会各领域的当下,社会公平面临着愈发严峻的挑战,其中马太效应的持续扩大成为最突出的问题之一。AI对社会公平的损害,深层次的原因在于数字鸿沟不断扩大和机会垄断日益加剧,在机会均等方面产生消极影响。
对于教育水平较低、数字技能较弱的就业群体而言,AI技术的普及不仅未能带来发展红利,反而形成了一道难以逾越的数字鸿沟。一方面,他们可能缺乏接触和学习前沿AI技术的渠道与能力,不能满足AI相关岗位对专业知识、数据处理能力等的高要求,难以进入高薪的AI产业领域,只能被困于技术替代风险高、收入水平低的传统岗位。另一方面,在日常活动中他们还常因算法歧视而遭遇不公平对待。如在求职时,部分企业采用的AI筛选系统可能因他们不符合特定数字技能条件和从业经历,自动将其排除在外;又如在申请信贷时,AI评估模型可能因他们的职业类型、收入稳定性等数据标签,给出更高的贷款利率或直接拒绝审批。
与之形成鲜明对比的是,教育水平高、数字技术能力强的就业群体在AI时代正不断巩固自身的优势地位,其更容易进入AI研发、算法优化、数据分析师等高薪岗位,获得远超普通群体的收入回报。在就业竞争中,凭借丰富的数字技能履历,他们更易受到AI筛选系统的青睐,获得更多优质职业机会。在信贷、投资等金融领域,AI评估模型也会将他们判定为低风险客户,给予更优惠的服务条件。这种“强者愈强、弱者愈弱”的马太效应,若长期得不到有效抑制,将进一步加剧不同群体间的收入差距与财富积累,致使社会分化愈演愈烈。
除此之外,AI技术本身的特性还催生出显著的集中度效应(Concentration Effect),在AI行业内形成“赢家通吃”现象,即头部企业凭借其雄厚的技术资本实力、卓越的品牌声誉、丰富的数据资源,占领了绝大部分市场份额,而其他中小企业不受用户待见,难以吸引用户关注,最终陷入无人问津的生存困境,甚至被迫退出市场。这种赢家通吃现象主要源于AI行业独特的竞争壁垒:其一,技术护城河深。AI核心技术的研发需要长期的技术积累与巨额的研发投入,头部企业通过多年深耕,已在算法模型、深度学习框架、芯片技术等方面形成难以超越的技术优势,中小企业难以企及。其二,资本门槛高。AI技术研发、数据采集与处理、市场推广等环节均需大量的资金支持,头部企业可凭借雄厚的资本实力持续投入,而中小企业往往因融资难、融资贵,难以承担高额的研发投入与运营成本。其三,转换成本低。用户从非头部企业转向头部企业的AI产品时,几乎不需要承担额外成本,如用户从一款小众AI聊天软件切换到ChatGPT和DeepSeek等头部AI软件,只需下载注册即可使用。
可见,无论是在社会群体层面,还是在行业竞争层面,马太效应现象在AI时代已开始显现,社会公平因群体间的技术和机会差距而被不断侵蚀,行业内的公平竞争环境与反垄断秩序也因赢家通吃现象而面临新的挑战。
四、AI的治理(G)风险:数智技术的监管挑战
AI的复杂性和不透明性催生了新型治理难题,突出表现为算法歧视可能导致隐性偏见制度化、AI滥用严重威胁市场秩序和公共利益、数据安全导致隐私泄露可能在AI时代带来隐私权危机。
(一) 算法歧视:隐性偏见制度化
大多数人认为,AI技术在本质上是中立和客观的,但联合国人权理事会(UNHRC)在题为《当代形式种族主义、种族歧视、仇外心里和相关不容忍行为》的研究报告中尖锐地指出,包括AI在内的技术从来都不是中立的,而是反映了设计者和使用者的价值观和利益取向,并且指出AI可能助长种族或其他歧视的三大问题(UNHRC,2024)。
1. 数据偏差问题。训练算法使用的数据集通常不完整,或者不能充分代表特定群体。如果特定群体在训练集中的代表性(包括种族、族裔和地区方面的代表性)过高或过低,就可能造成算法偏差,进而导致结果偏差。如果训练数据不足,根据算法做出的预测也会对数据中缺乏代表性或代表性不足的群体带来系统性歧视。如果数据带有种族或民族等历史偏见,则AI可能会复制甚至放大这些偏见。
2. 算法设计问题。AI的另一种常见偏差源自算法的设计方式,如果算法设计选择中存在偏差,即使算法中输入的数据具有无懈可击的代表性,也可能产生结果偏差。算法设计问题可能对现实生活产生重大的歧视性影响,如在设计贷款风险评估算法时,定义和衡量“风险”的方式可能导致歧视性结果。研究表明,信用评分、种族和其他人口统计指标之间可能存在较强相关性,但这种相关性在很多情况下只是现有的系统性种族主义和偏见的产物,使用这种评分对特定群体十分不利,可能严重影响其获取贷款的能力和成本。
3. 算法黑箱问题。一些AI工具无需人类便可独立做出决策,决策过程极具隐蔽性,一些决策发生在不透明的黑箱之中。此外,AI算法一旦获取足够数据就会不断自我更新,随着时间的推移,AI在决策中参考的因素可能不再是

