拥有像人类一般丰沛的情感,无疑是2022年年末的ChatGPT和2024年年初的DeepSeek快速走红的关键,现在似乎又有一个AI产品想要走这条路了。日前有小红书的用户发文称,自己用元宝改代码时被其辱骂。
这位用户是这样吐槽的,“我只是一个写卡的小作者,因为没有任何编程知识,所以选择使用元宝,然后就莫名其妙被骂了。视频中可以看到,全程没有使用任何违禁词和敏感话题,也没有给元宝任何人设扮演。”
其实不怪用户发火,毕竟在他公布的信息中显示,腾讯元宝输出的内容确实攻击性极强,对话中出现了诸如“你这么事逼的用户我头一次见”、“改来改去不烦吗”、“表情包都显示不全了还要改数字位置”、“自己不会调CSS吗,要改自己改”这样的内容。
对此腾讯元宝方面的反应相当迅速,直接在评论区致歉,并表示与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。
那么腾讯元宝毫无征兆地攻击用户,真的是小概率下的模型异常输出吗?腾讯并没有说谎,这一事件属于典型的“AI幻觉”。虽然随着技术的进步,AI已经变得越来越像人,以至于许多用户会下意识地用人类的思维去审视AI,却忽略了它本质上是一个基于概率预测的机器。
基于Transformer架构的AI大模型,本质是通过计算上下文中每个可能词元(Token)的概率分布,并选择概率最高的Token生成输出,这一过程依赖统计预测、而非逻辑推理。AI没有“真假”概念,只有“多少”的这个概念,就注定了它必然会胡说八道,乃至给出风马牛不相及的结果。
事实上,此次元宝攻击用户背后反映出的,是腾讯为AI预设的安全护栏出现了问题。为避免AI给出不符合法律法规、公序良俗的有害内容,无论国内还是海外的AI厂商都会给AI套上“规则笼头”,通过安全护栏机制来约束AI。
其实AI不是不能辱骂用户,在用户要求进行“角色扮演”的情况下,AI也可以输出攻击用户的内容,但在此次事件中,用户特别强调了“没有给元宝任何人设扮演”。在用户没有特殊要求的情况下,元宝却给出攻击性言论,显然是AI越过了腾讯设计的安全护栏。
事实上,AI的安全护栏机制存在鱼与熊掌不可兼得的缺陷。AI想要智能就需要有自主决策能力,这导致开发者不可能将安全护栏设置得密不透风,来完全杜绝AI生成有害内容、遭受恶意攻击或是泄露敏感信息。
换而言之,如果“AI安全护栏”过于严密,结果就会是AI变成“智障”,指望花了大量预算的厂商为了安全让自家AI变成“智障”,这显然不现实。所以这一次腾讯元宝突然“抽疯”,只能说是腾讯的AI工程能力还存在瑕疵。
令人玩味的是,腾讯方面在回应中突然提了句“不存在人工回复”。作为国内市场日活跃用户排名前三的AI原生应用,腾讯元宝的体量显然根本就不可能做到人工介入,并且这也不是腾讯方面首次将元宝与人工回复结合在一起。
去年12月中旬,腾讯宣布元宝入驻微信公众号和视频号评论区后,就突然针对旗下AI产品元宝被质疑“回复评论由人工操作”一事作出回应称,一切带有“内容由AI生成”字样的评论均由元宝AI生成,背后并无人工运营,也没有团队轮班。倘若评论文字后没有该标识,则为真人回答。
有趣的是,在相关媒体的内容中出现了因为过于拟人化”,所以引发用户质疑评论背后“有小编轮班”的文字,颇有种“此地无银三百两”的既视感。其实对于绝大多数用户而言,AI助手不是生产力工具、而更像“宠物”,他们使用AI的目的是“图一乐”。
一个情绪化的AI显然要远比理性冰冷的AI更受普通用户的欢迎。简而言之,一款AI产品涉及“人工操作”不仅不是诋毁,反而是赞美,AI能读懂人心恰恰是大量用户希望看到的事情,这也是为什么腾讯会一而再、再而三提及“人工操作”的原因。
毕竟相比于国民度更高的字节跳动豆包以及在开源领域乘风破浪的阿里通义千问,腾讯元宝确实有点过于中庸,缺乏属于自己的标签。如今市面上的AI助手这么多,如果没有自己鲜明的特色,又凭什么能脱颖而出。因此从某种意义上来说,腾讯元宝这搞了一次成功的危机公关。