法治日报刊文指出,OpenClaw虽然带来诸多安全风险,但很难挡住AI智能体飞速发展的脚步。风险责任承担模式的转变,成为这一技术浪潮中必须直面的重要命题。 法律风险承担的原则是“谁控制谁承担”,这也是行为人为自己行为承担责任、被代理人为代理人行为承担责任、动物饲养人为动物行为承担责任的原因所在。传统AI应用呈中心式网络结构,大型平台作为“守门人”,承担着过滤安全风险的核心义务,因此绝大多数风险责任由平台承担,或由平台追责至开发者。而AI智能体涉及大模型与调用工具,虽大模型仍由平台控制,但调用工具(如OpenClaw)的实际控制权转移至用户,应用形态转变为分布式网络结构。这意味着平台无法掌控智能体的具体使用场景,控制能力弱化直接导致责任边界收缩。这预示着:未来,AI智能体应用产生的风险,或将更多由实际控制者即用户自身承担。 更复杂的是,用户虽向AI智能体发布指令,但后者的自主行为能力会弱化实际控制效果。由于AI智能体无生命、无财产,无法对自身损害承担责任,最终责任将落到“事实上无控制能力”的用户身上。同时,对OpenClaw而言,其技能插件多由社区开发者贡献,部分插件可能存在恶意代码或安全漏洞,用户在安装过程中难以完全甄别,这进一步加剧了责任承担的复杂性。