Liquid AI推出企业级小模型训练蓝图LFM2,MIT创企引领AI新潮流

Liquid AI,一家由MIT创立的企业,近日发布了企业级小模型训练蓝图LFM2,该蓝图旨在帮助企业更高效地训练和优化小型模型,以适应各种业务需求,LFM2的设计注重实用性和灵活性,旨在帮助企业在有限资源下实现AI技术的快速部署和应用,这是Liquid AI在AI领域的又一重要突破,有望引领新一轮的企业级AI应用浪潮。

liquid ai 是一家于2023年创立的初创企业,由来自麻省理工学院的计算机科学专家团队主导。2025年7月,该公司推出了其 liquid foundation models 系列的第二代模型——lfm2,采用创新的“liquid”架构,致力于打造当前市场上速度最快、适用于设备端运行的基础模型。凭借卓越的训练与推理效率,lfm2系列小规模模型在性能上已具备与云端大模型(如openai的gpt系列和谷歌gemini)相抗衡的实力。

Liquid AI推出企业级小模型训练蓝图LFM2,MIT创企引领AI新潮流

LFM2首发提供了350M、700M和1.2B参数的密集型检查点版本,采用了以门控短卷积为核心的混合架构设计。基准测试表明,该模型在语言生成质量及CPU推理吞吐量方面均超越了Qwen3、Llama3.2和Gemma3等同类模型。对企业用户而言,这意味着可在智能手机、笔记本电脑乃至智能汽车等终端设备上实现低延迟、高隐私保护的AI功能部署,无需再在模型能力与响应速度之间做出妥协。

继LFM2发布之后,Liquid AI持续扩展其产品生态,陆续推出了面向特定任务与领域的定制化变体、轻量级视频处理与分析模型,并配套发布了名为LEAP的边缘计算部署栈。如今,公司已在arXiv平台公开了一份长达51页的技术报告,详细披露了LFM2背后的架构搜索机制、训练数据配比、知识蒸馏目标、课程学习策略以及后训练优化流程。这一技术蓝图的开源,将为其他机构提供从零开始训练高效小型模型的完整路径,尤其适配各自硬件条件与部署限制。

MIT 创企 Liquid AI 推出企业级小模型训练蓝图 LFM2

LFM2的设计始终聚焦真实企业应用场景中的关键约束,包括延迟容忍度、内存占用上限和设备散热限制,确保其在多样化的终端设备上均可稳定高效运行。报告还重点介绍了其高度优化的训练流水线,旨在提升模型对指令的准确理解与执行能力,增强工具调用的可靠性,从而显著提升LFM2在实际业务场景中的可用性与实用性。

源码地址:点击下载

网友留言(0 条)

发表评论