Gartner:预测未来国家将强制关键流程保留人工参与

作者: 商业洞察

责任编辑: 宋慧

来源: BusinessInsider

时间: 2025-10-13 10:13

关键字: Gartner,AI,人力参与配额

浏览: 2236

点赞: 127

收藏: 15

  • 人工智能正在改变工作方式以及企业的产出。
  • 主要经济体可能会引入配额制度,强制规定工作中最低限度的人力参与。
  • Gartner举行的一场大型会议上,人力配额成为热门话题。


人工智能正在深刻重塑工作模式及企业的生产方式。据预测,主要经济体或将引入“人力参与配额”制度,强制规定在业务流程中保留最低限度的人类参与比例。这一议题已成为本周在伦敦举行的一场大型人力资源会议的焦点。尽管基于性别与种族的多元化与包容性配额已于2025年逐步取消,但随着人工智能在各行业中的广泛应用,人力资源专家指出,一种新型的配额机制可能应运而生——其目标在于保障全人类在技术主导环境下的公平参与权。


在周二于伦敦召开的人力资源研讨会上,全球知名研究机构高德纳公司(Gartner)的分析师提出预测:到2032年,全球至少30%的主要经济体将实施“认证人力配额”政策,要求企业在关键业务环节维持一定水平的人力介入。Gartner集团副总裁阿尼亚·克拉辛涅夫斯卡(Ania Krasniewska)在接受《商业内幕》(Business Insider)采访时表示,该预测基于公司多项综合分析结果。其核心目的在于确保即便人工智能在企业运营和产出中占据更大比重,人类仍能在生产活动、决策制定以及创新过程中发挥实质性作用。


克拉辛涅夫斯卡强调:“此类变革不会由企业自发推动,而是将由立法驱动。一旦相关法规生效,组织必须建立清晰的员工再部署机制,并具备可验证的执行记录。”她进一步指出,未来几年预计将出台更多类似法规。以澳大利亚为例,该国高等法院于8月作出裁决,确认公平工作委员会有权审查雇主在裁员前是否已充分考虑通过岗位重组实现员工再配置。该判决源于一起企业将业务外包并同步裁员的案件,但其影响范围将延伸至人工智能背景下的人力资源管理决策。


与此同时,随着人工智能生成内容的普及,企业领导者还需直面由AI输出错误所引发的责任归属问题。波士顿咨询公司(BCG)数据显示,目前仅有5%的企业真正从人工智能应用中实现了价值转化。克拉辛涅夫斯卡以医学影像诊断为例说明:“若人工智能系统误读影像结果并导致不当治疗,责任应由谁承担?”


当前普遍采纳的解决方案是维持“人在回路中”(human-in-the-loop)机制。例如,欧盟《人工智能法案》明确规定,对高风险人工智能系统的使用须接受“有意义的人工监督”,以确保人类能够在危及健康、安全或基本权利的情况下及时干预并纠正AI输出。然而,该机制并非绝对可靠。近期,全球四大会计师事务所之一德勤同意向澳大利亚政府部分退款,因其提交的一份报告存在严重错误,包括引用虚构学者的研究成果及伪造联邦法院判决引文。该公司承认,在撰写过程中使用了人工智能工具。


对此,克拉辛涅夫斯卡建议,企业应建立机制追踪人类在内容生成过程中的参与程度,并对信息来源进行标注或添加数字水印,以明确区分人工智能生成内容与人工创作内容。她预测,未来可能出现立法要求或公众舆论压力,推动组织披露其决策路径与内容生成过程。“许多组织尚未深入思考这一问题——我们应当如何规范自身行为。但我认为,一个现实的趋势正在显现:人们将越来越意识到,我们必须透明地展示从起点A到终点B的过程。”克拉辛涅夫斯卡总结道。

©本站发布的所有内容,包括但不限于文字、图片、音频、视频、图表、标志、标识、广告、商标、商号、域名、软件、程序等,除特别标明外,均来源于网络或用户投稿,版权归原作者或原出处所有。我们致力于保护原作者版权,若涉及版权问题,请及时联系我们进行处理。