AIPress.com.cn报道
3月30日消息,Meta近日在美国两起涉及未成年人安全问题的案件中败诉,引发科技行业对企业内部研究与法律责任关系的讨论。分析人士认为,这些判决可能对科技公司未来开展AI及平台安全研究产生影响。
这两起案件分别在新墨西哥州和洛杉矶审理,尽管案情不同,但陪审团在判决中均认为,Meta未能充分监管其平台,从而使未成年人面临潜在风险。庭审过程中,大量内部文件被提交为证据,包括公司高管邮件、演示材料以及由Meta研究团队完成的内部研究报告。
Meta早在十多年前就开始聘请社会科学研究人员,研究社交平台对用户行为和心理健康的影响。这一做法最初被视为科技公司试图理解其产品潜在风险的重要举措。但在此次诉讼中,部分内部研究结果被用作证据,显示公司对平台可能带来的负面影响早已有所了解,却未向公众充分披露。
曾在Facebook任职并在两起案件中作证的前高管布莱恩·博兰德表示,庭审中呈现的一些内部研究结果,与公司过去对外的公开表述之间存在差异。陪审团最终认定,Meta在平台治理方面存在不足。
诉讼还涉及一些具体研究发现。例如,一项内部调查显示,Instagram上相当比例的青少年用户曾收到不受欢迎的性暗示信息。另一项研究则表明,减少使用Facebook可能会降低用户的抑郁和焦虑程度,该研究后来被公司终止。
Meta的辩护团队则认为,部分研究年代较早,且被断章取义,不能准确反映公司目前的运营方式和安全措施。Meta和同案被告谷歌旗下的YouTube均表示将对判决提出上诉。
业内人士指出,类似案件可能使科技公司在开展内部研究时更加谨慎。研究人员的工作原本旨在评估产品对用户的影响,但在法律诉讼中,这些研究可能被视为公司“已知风险”的证据,从而增加法律责任。
2021年,前Facebook产品经理弗朗西丝·豪根向媒体和监管机构披露大量内部文件,揭示公司早已掌握部分平台负面影响的研究结果。这一事件被认为是科技行业研究透明度问题的重要转折点,也促使Meta调整内部研究团队结构,并减少部分相关研究项目。
随着科技公司加速布局生成式AI,类似问题再次引发关注。OpenAI、Anthropic等公司近年来投入大量资源研究AI模型及其社会影响,但专家担心,如果内部研究被视为潜在法律风险,一些企业可能会减少此类研究。
儿童与屏幕数字媒体发展研究机构的研究主管凯特·布洛克表示,目前AI行业的研究重点仍集中在模型行为、可解释性和对齐问题上,而关于聊天机器人和数字助手对儿童成长影响的研究仍相对有限。她认为,科技公司应建立更透明的研究机制,使公众和独立研究机构能够更好地评估这些技术的社会影响。(AI普瑞斯编译)