对AI智能体失控的恐惧至今仍阻碍了这些数字化工作助手的大规模部署,Okta公司Auth0业务总裁Shiv Ramji告诉The Register。
"这是安全和隐私方面的担忧,比如这些系统准备好了吗?我们是否已经建立了正确的措施和可见性?"他说。"正是这种洞察促使我们真正加快了产品开发进度,更快地推向市场,因为我们意识到客户需要我们的帮助。"
随着AI智能体开始进入工作环境,为这些数字自动化工具建立护栏的复杂性阻碍了它们的发展,Forrester分析师Andras Cser也同意这一观点。
"瓶颈主要是授权管理和部署的可扩展性,"他说。
这让Okta、Ping Identity和Microsoft Entra ID等身份访问管理供应商处于建立安全、可重复架构的主导地位,Cser和其他Forrester分析师在11月发布的研究报告中写道。
"企业和面向客户的IT环境中的AI智能体将带来前所未有的生产力收益,同时也会带来身份和访问管理方面的麻烦,"研究人员写道。"由于AI智能体的自主性和非确定性行为,它们代表了一种既非完全机器也非人类的新型身份。AI智能体提出了新的治理、认证和授权挑战——因此IAM架构和实施它们的IAM解决方案必须将AI智能体作为一种新的独特身份类型和保护面来处理。"
在报告中,Forrester建议组织为AI机器人分配尽可能少的代理权,包装在持续风险管理中,同时通过符合现有IAM框架的可重复架构来保护机器人背后的意图。他们还建议部署一个能够服务于所有智能体类型的单一IAM架构,并使用模型上下文协议作为构建块。
Ramji表示,Okta的Auth0 for Agents满足了这些要求,为组织提供了智能体代表用户所做工作的完整可审计性,这也可以与安全平台相关联。
这很关键,因为让首席信息安全官夜不能寐的最新恐惧是保护内部系统免受一群过度热情、讨好用户的机器人的侵害。
"一切都被记录下来,即使是代表你执行任务的智能体。我们记录智能体采取的所有活动和行动。然后这些事件被输入到客户使用的我们的系统中,"他说。"我们还将这些事件流式传输到客户可能使用的其他安全系统中。所以有时会有一个工具来观察所有这些。我们将这些事件传输到那里。"
Okta是Gartner身份访问管理领域的领导者,该公司上个月发布了其工具——Auth0 for AI Agents,此前Ramji表示已经与开发者和用户在幕后合作了一年。虽然公司看到智能体的用例在增长,但随着AI智能体访问内部工具和资源,包括数据库、共享文件夹中的文件以及内部知识管理系统,有时会重复访问并持续到完成任务为止,恐惧也在增长。
"这些AI应用程序和AI智能体,特别是生成式AI,它们使用非确定性模式。我的意思是,你可以要求智能体做你会做的同样的事情,比如'嘿,帮我订一张机票,或者找一家酒店,'"他说。"或者它可以为你做一些相当复杂的任务。"
虽然让人类参与其中很关键,但没有智能体应该拥有比它为之工作的人更大的权限,他说。随着智能体代表用户在不同系统中工作,Auth0构建了所谓的Token库来管理和跟踪智能体执行任务的过程。
"它的作用是让你能够安全地将智能体连接到不同的应用程序,这样开发人员就不必管理那个基础设施,"他说。"我们来做这件事,而且我们安全可靠地做这件事,这样你就可以构建这些智能体可以代表你做事的体验。我们的思考方式是,我们正在让客户从第一天起就能够安全地构建智能体。"
Forrester表示,随着AI智能体使用包括密码、API密钥和PKI证书在内的凭据对后端系统进行认证,像"1Kosmos、Microsoft、Okta和Ping Identity这样的身份访问管理供应商将在智能体认证和智能体提供者注册表维护中发挥越来越重要的作用。"
Ramji表示,访问管理产品正在为AI智能体在工作场所的重要一年奠定基础——但经历了几个技术周期后,他不愿意说2026年是"AI智能体之年"。
"我认为你会看到更多的用例投入生产,部分原因是我认为现在有安全产品可以用来设置护栏和可见性,而且我认为消费者的采用已经到位,"他说。"人们会说,'好吧,我要与智能体互动。那么智能体能为我做什么?'"
Q&A
Q1:什么是Auth0 for AI Agents?它能做什么?
A:Auth0 for AI Agents是Okta公司推出的AI智能体身份管理工具,它为组织提供智能体代表用户所做工作的完整可审计性,记录智能体的所有活动和行动,并可以与安全平台相关联,让企业能够安全地构建和管理AI智能体。
Q2:为什么AI智能体的部署面临安全挑战?
A:因为AI智能体具有自主性和非确定性行为,它们代表了一种既非完全机器也非人类的新型身份。当智能体访问内部工具和资源时,如数据库、共享文件等,会带来新的治理、认证和授权挑战,企业担心智能体失控或权限过大。
Q3:如何确保AI智能体的安全性?
A:Forrester建议为AI智能体分配尽可能少的代理权,包装在持续风险管理中,确保智能体权限不超过它为之工作的人。同时使用Token库来管理和跟踪智能体执行任务的过程,并建立可重复的安全架构。
下一篇:没有了