研究与咨询机构 Gartner 预测,到 2028 年,agentic AI 将出现在 33% 的企业软件应用中,并使 15% 日常工作实现自主决策。随着企业迈向这一未来,领导者必须考虑现有的云基础设施是否能应对大量 AI agent 的涌入。
“归根结底,它们都是在混合云环境中运行、托管和访问的,” IBM 研究员兼技术与咨询公司 IBM 云安全 CTO Nataraj Nagaratnam 说道。“你可以保护你的 agentic AI,但如果你在基础设施层面(无论是本地、私有云还是公有云)把大门敞开……威胁和风险就会增加。”
InformationWeek 采访了 Nagaratnam 以及另外两位云安全和 AI 领域的专家,以了解为何安全的云基础设施如此重要,以及在 agentic AI 用例不断增加之际,企业该如何确保拥有这一坚实基础。
安全与风险考量
采用 agentic AI 所带来的安全和风险问题对于组织来说并非全新。当初企业第一次探索迁移到云时,安全性、遗留技术负债和潜在的数据泄露问题就是难题的一部分。
“所有相同的原则依然适用,只是在转向基于 agentic 的环境时,基础设施中任何可能的暴露点或薄弱环节都会变得更加明显,” PwC 专业服务网络中负责云、工程、数据和 AI 的领导者 Matt Hobbs 在接受 InformationWeek 采访时表示。
相关阅读: Lunar 数据中心即将登场
尽管 agentic AI 带来新颖而激动人心的感觉,但该技术的安全与风险管理始于基础设施安全。“你是否做好了基本的卫生工作?” Nagaratnam 询问道。“你是否已经建立了足够的身份验证机制?”
在 AI 的世界里,数据就是一切。它为 AI agent 提供动力,同时也是企业一项珍贵且风险重重的资源。这种风险并非新鲜事,但随着 agentic AI 的出现,其风险会愈加显现。
“传统上我们处理的不仅仅是结构化数据,还有 GenAI 以及由此进入 agentic 时代所能调取的海量非结构化数据与内容,” Nagaratnam 指出。
AI agent 不仅增加了数据暴露的风险,还可能带来恶意行为的隐患。“我能否让这个 agent 泄露它不该透露的信息?我能否对它进行破坏?我能否利用或注入恶意代码?” Nagaratnam 进一步问道。
企业领导者还需要考虑引入 agentic AI 的合规性问题。“agent 及系统必须符合规定,但你也会继承其下层云基础设施的合规性问题,” Nagaratnam 补充道。
相关阅读: FinOps 的演变超越了云计算
合适的利益相关者
任何已经踏上 AI 之旅的组织很可能已经意识到需要来自企业各部门的多方意见。CIO、CTO 和 CISO —— 即那些已经深入参与云安全工作的人 —— 自然成为 agentic AI 采用的领导者。法律与监管专家在关于云基础设施与拥抱 AI 的内部讨论中也同样必不可少。
随着 agentic AI 的出现,将与 AI agent 直接打交道的工作人员的参与也会有所帮助。“我实际上会找那些现在正忙于你试图通过自动化来改善工作流程的人,” 企业 AI 咨询公司 RTS Labs 的 AI 与自动化主管 Alexander Hogancamp 表示。
让这些人员参与进来,可以帮助企业识别用例、发现潜在风险,并更好地了解 agentic AI 如何改善和自动化工作流程。
AI 领域发展迅速 —— 就像巨浪、赛马或火箭般迅猛(你可以任选比喻) —— 仅仅跟上这些发展就已是一大挑战。成立一个 AI 工作组可以使组织保持对 AI 领域所有动态的了解。他们可以专门安排时间探索 AI 的新进展,并定期召开会议讨论这些进展对团队、基础设施及整个业务的影响。
相关阅读: 数据中心的再造
“这些都是业余爱好者,有着满腔热情的人,” Hogancamp 说道。“尽早识别到这部分人才真的是非常非常有价值。”
组建内部团队固然关键,但在 agentic AI 的世界里,没有任何企业是孤岛。几乎可以肯定的是,各公司都会与需要参与讨论的外部供应商合作。
云服务提供商、AI 模型提供商以及 AI 平台提供商都参与到企业的 agentic AI 之旅中。这些角色中的每一个都需要经过第三方风险评估。他们能够访问哪些数据?他们如何训练模型?都有哪些安全协议及框架在运行?会引入哪些潜在的合规风险?
为 agentic AI 做好准备
AI 前进的速度给企业带来了不小的挑战。他们如何在管控安全风险的同时紧跟发展脚步?找到这种平衡非常困难,但 Hobbs 鼓励企业不要无期限等待,而是积极寻求前进之道。
“如果你现在停止所有创新,声称‘我们接下来 10 年只用现有的东西’的话,你在接下来的 10 年里仍然会不断地摄取、采纳和改造你的业务,”他说道。
与其无限期等待,不如接受 agentic AI 存在一段学习曲线这一现实。
每个公司都需要根据自身情况确定对 agentic AI 的准备程度,而云原生组织可能会占得先机。
“设想那些一开始就使用现代化基础设施托管系统的云原生组织,然后在其之上构建现代数据环境,并围绕 API 访问建立基于角色的安全体系,” Hobbs 解释道。“你所在的位置会更有备而来,因为你知道如何将现代化基础设施扩展为支持 agentic AI 的基础设施。”
主要依赖本地基础设施,且未着手现代化云基础设施的组织,在采用 agentic AI 时很可能需要付出更多努力。
在企业团队评估 agentic AI 部署前的基础设施时,技术负债将成为一个重要考量因素。“如果你没有解决当前环境中存在的技术负债,相比之下你的转型速度将大大减缓,” Hobbs 警告道。
那么,当你认为已经准备好开始捕捉 agentic AI 带来的价值时,该从哪里开始呢?
“首次使用用例时,不要一上来就启动一个多 agent 网络,” Hogancamp 建议说。“如果你尝试立即全盘启动 agent,而没有采取任何不同的策略,那你可能会遭遇困境。”
企业需要发展监控和审计 AI agent 的能力。“你允许 agent 执行的操作越多,其决策树可能就越复杂,” Hogancamp 指出。
随着 AI agent 能力的不断增强,企业领导者需要像对待员工那样来看待它们。
“你必须将其视为组织中拥有适当指导、参数、政策措施及良好判断能力的员工一样来看待,” Hobbs 解释道。“如果你内部已有的内容被暴露,而你又开始构建 agent 去审查你环境内并利用其不应获得的数据,你可能会违反法规,肯定也会违反你自己的政策,甚至可能违反你与客户所达成的协议。”
一旦企业在监控、测试和验证单个 agent 的过程中取得成功,就可以开始添加更多 agent。
随着 AI agent 自主行动、做出影响业务结果的决策,健全的日志记录、追踪与监控至关重要。而随着越来越多的 agent 被整合进企业工作流程——在处理过程中摄取敏感数据——企业领导者将需要越来越多自动化的安全措施,在云基础设施中持续监控它们。
“不再是那个 CISO 给出一套政策和控件然后说‘你应该这样做’的时代了。因为对于开发人员来说,这些政策和控件甚至难以理解和解读。所以,安全自动化正是解决这一问题的核心,” Nagaratnam 表示。
随着 agentic AI 用例的爆发,高层管理人员和董事会都会希望看到其价值,而 Hobbs 正在看到越来越多关于如何衡量这一投资回报率(ROI)的讨论。
“这可能体现在流程效率提升、成本降低以及更多 AI 的应用上——这是另一套衡量标准;也可能体现在总体生产力提升上——这又是另一套衡量标准,”他说道。
如果没有一个安全的云基础,企业可能难以捕捉到他们所追求的投资回报率。“我们需要现代化数据平台,我们需要现代化我们的安全格局,我们需要更好地掌握主数据管理,这样才能利用 agentic 劳动力或任何 AI 战略带来的更快转型速度,” Hobbs 总结道。