Meta 开源 MobileLLM-R1 系列小语言模型
创始人
2025-09-22 21:14:50

IT之家 9 月 22 日消息,Meta 现已公布了 MobileLLM-R1 系列小语言模型,分别提供 1.4 亿、3.6 亿和 9.5 亿不同参数版本,强调能够在本地移动平台等轻量级设备上运行

Meta 表示,MobileLLM-R1 并不是面向聊天机器人的通用模型,而是经过监督式微调(SFT)专门训练,主要用于解决数学、编程(如 Python、C++)和科学类问题,以最大规模的 MobileLLM-R1 950M 为例,其预训练数据仅使用了约 2TB 高质量 token,总训练数据量也不到 5TB,但表现依然出色。在 MATH、GSM8K、MMLU、LiveCodeBench 等多项基准测试中,成绩超过了使用 36TB token 数据训练的 Qwen 3-0.6B。

在对比现有开源小模型时,MobileLLM-R1 950M 在 MATH 测试中的准确率是 Olmo 1.24B 的 5 倍,也是 SmolLM 1.7B 的 2 倍。在编程任务中,其表现同样优于 Olmo 1.24B 和 SmolLM 1.7B。

目前,开发者可以通过 vLLM 推理引擎运行 MobileLLM-R1,只需在 ModelRegistry 中登记模型架构 Llama4ForCausalLM 即可。该系列模型已以 Apache 2.0 协议开源,并发布在 Hugging Face 平台(点此访问)。

相关内容

热门资讯

原创 中... 这些并非空穴来风的判断,背后是英伟达血淋淋的市场教训。美国政府自2022年起层层加码对华芯片出口管制...
实达集团新注册《多模态AI能力... 证券之星消息,近日实达集团(600734)新注册了《多模态AI能力引擎平台V1.0》项目的软件著作权...
“最懂你的AI交易助手”亮相世... 11月8日召开的2025年世界互联网大会乌镇峰会“数字经济分论坛”上,闲鱼CEO丁健分享了闲鱼AI发...
伊利诺伊大学香槟分校突破:AI... 这项由伊利诺伊大学香槟分校的孙嘉硕教授团队与澳大利亚国立大学、香港科技大学、威斯康星大学麦迪逊分校和...
官方声明:王硕威同志不是福建舰... 11月8日,中国舰船研究设计中心官方微信公众号发布“声明”: 一、王硕威同志不是福建舰总设计师,也不...