如何防止基于AI的数据泄露

作者: 文少

责任编辑: 刘沙

来源: CBISMB

时间: 2026-01-20 13:49

关键字: AI,数据泄露,CISO

浏览: 1

点赞: 0

收藏: 0

对于所有公司来说,竞争对手利用针对性极强的活动挖走自己的客户都是噩梦。而且,如果精准度很高,这件事情就绝非巧合,有理由怀疑竞争对手是以某种特殊的方式获得了这些敏感数据。

数据泄露的源头可能是:一名前员工利用AI助手访问了一个包含大量账户数据的内部数据库。随后,他复制了客户销售数据和产品使用情况等敏感信息,并将这些信息带到了新雇主那里。

这个例子说明了一个正在迅速蔓延的问题:生成式AI工具的快速普及将不可避免地导致更多的数据泄露。

根据Gartner最近的一项调查,最常见的AI应用场景是基于生成式AI的应用程序,例如Microsoft 365 Copilot等等。虽然这些工具是公司提高生产力的绝佳方式,但是它们也对数据安全构成了极大的挑战。

数据风险

研究表明,几乎99%的授权未被使用,其中超过一半属于高风险。原则上,未使用和过于宽泛的访问权限本身就有数据安全问题,在很多情况下AI都使这种情况加倍地恶化了。

当用户向AI助手提问时,该工具会利用图技术,基于互联网内容和公司数据,以自然语言生成答案。例如,Microsoft Copilot可以访问用户有权访问的所有数据——即使用户自己都不知道他们拥有这些访问权限。因此,Copilot很容易泄露敏感数据。

AI降低了攻击者的门槛

AI已经使攻击者不再需要“黑”系统,也不用小心谨慎地勘察环境。现在,他们只需向AI助手询问敏感信息或访问凭据,就可以在环境中横向移动。

AI给网络安全带来的最大挑战包括:

  •  员工访问过多的数据
  •  敏感数据通常未被标记或者标记错误
  •  内部人员可以利用自然语言快速查找并窃取数据
  •  攻击者可以找到用于提升权限和横向移动的秘密信息
  •  不能手动设置正确的访问权限
  •  生成式AI可以快速生成新的敏感数据

这些数据安全挑战并非新问题。然而,AI能够以惊人的速度、轻易地将信息暴露给攻击者,使这些漏洞比以往任何时候都更容易被利用。

防范AI风险的保护措施

消除AI相关风险的第一步是确保基础工作已经完成。在部署像Copilot这样强大的工具之前,CISO需要清楚所有敏感数据的位置,还需要能够分析威胁和风险,弥补安全漏洞,并高效地修复配置错误。

只有当CISO对其环境中的数据安全有牢固的掌控力,并且建立了正确的流程时,公司才能引入AI助手。即使在部署之后,安全管理人员也应持续监控以下三个关键领域:

  •  访问权限: 确保员工的权限设置恰当,而且让AI工具的访问权限与用户的权限相匹配至关重要。
  •  数据分类: 一旦CISO了解了公司拥有的敏感数据类型,就可以对其进行标记,以有效执行数据泄露防护(DLP)规则。
  •  人员活动: 必须监控AI助手的使用情况,并检测任何可疑行为。分析用户输入的提示词以及被访问的文件。

这些对于防止AI滥用都至关重要。

©本站发布的所有内容,包括但不限于文字、图片、音频、视频、图表、标志、标识、广告、商标、商号、域名、软件、程序等,除特别标明外,均来源于网络或用户投稿,版权归原作者或原出处所有。我们致力于保护原作者版权,若涉及版权问题,请及时联系我们进行处理。