3 分钟阅读

标准普尔最近发布的全球人工智能趋势报告中,近 70% 的受访者表示他们至少有一个人工智能项目正处于生产阶段,人工智能无论是炒作还是真实采用,似乎都达到了前所未有的高度。虽然人工智能的承诺是从根本上重塑业务运营,但也创造了新的风险载体,为不法分子敞开了大门,而大多数企业目前还不具备缓解这些风险的能力。

在过去的六个月中,三份报告(标普全球的《2023 Global Trends in AI》报告、Foundry 的《2023 AI Priorities Study》和 Forrester 的报告《Security And Privacy Concerns Are The Biggest Barriers To Adopting Generative AI》)都有相同的发现:数据安全是企业寻求采用和实施生成式人工智能的最大挑战和障碍。对实施人工智能的浓厚兴趣直接增加了企业在云环境中存储的数据量。不难理解,在不同的云架构(通常也跨越不同的地理管辖区)中存储、访问和处理的数据越多,安全和隐私催生的风险就越大。

如果企业没有采取适当的保护措施,就会立即成为网络犯罪分子的主要目标,根据 Unit 42® 的 2024 年事故响应报告,网络犯罪分子窃取数据的速度正在加快,45% 的攻击者在入侵后不到一天的时间内就外泄了数据。当我们进入到这个以数据为命脉的新“人工智能时代”时,了解并优先考虑数据安全的企业将处于有利地位,可以安全地追求人工智能带来的一切,而不必担心未来的后果。

为卓有成效的数据安全计划奠定基础

在新的人工智能时代,有效的数据安全计划可分为三大原则:

保护人工智能:所有人工智能部署 - 包括数据、管道和模型输出 - 都无法孤立地得到保护。安全计划需要考虑人工智能系统的使用情境及其对敏感数据暴露、有效访问和合规性的影响。

确保人工智能模型本身的安全意味着要识别整个人工智能管道中的模型风险、过度许可访问和数据流违规行为。

警惕人工智能:与大多数新技术一样,人工智能也是一把双刃剑。网络犯罪分子越来越多地利用人工智能来生成和实施大规模攻击。目前,攻击者正在利用生成式人工智能来创造恶意软件,起草以假乱真的网络钓鱼电子邮件,并通过深度伪造在网上传播虚假信息。此外,攻击者还有可能入侵生成式人工智能工具和大型语言模型本身。这可能会导致数据泄露,或者受影响工具的结果中毒。

携手人工智能:人工智能如何成为防御战略不可或缺的组成部分?采用这种技术进行防御,为防御者以前所未有的程度预测、跟踪和挫败网络攻击提供了可能。人工智能提供了一种简洁的方法来筛选威胁并确定哪些威胁最为关键,从而为安全分析人员节省了无数的时间。人工智能在模式识别方面也特别有效,这意味着可以更早地阻止遵循着重复攻击链的威胁(比如勒索软件)。

通过关注这三个数据安全原则,企业可以放心地利用人工智能进行探索和创新,不必担心给公司带来风险。