关闭广告

高效训练新标杆!华人开源原生VLM-NEO,以少数据追平顶级模型

DeepTech深科技2025-10-29 00:00:0150人阅读

当下主流的视觉语言模型(Vision-Language Models, VLM),通常都采用这样一种设计思路:将预训练的视觉编码器与大语言模型通过投影层拼接起来。这种模块化架构成就了当前 VLM 的辉煌,但也带来了一系列新的问题——多阶段训练复杂、组件间语义对齐成本高,不同模块的扩展规律难以协调。

由南洋理工大学 S-Lab 助理教授刘子纬领导的联合团队最近提出了 NEO,试图用另一种思路解决这些问题。这项工作试图回答一个根本性问题:如果不依赖预训练的视觉编码器,能否构建出与顶级模块化 VLM 相媲美的原生统一架构?


图丨相关论文(来源:arXiv)

在传统方法中,视觉编码器通常基于 CLIP 或 SigLIP 等预训练模型,这些编码器虽然在视觉理解上表现出色,但其固有的语义偏置会限制模型在特定任务上的灵活性。

更重要的是,视觉编码器和语言模型之间存在天然的“代沟”——前者采用双向注意力机制来捕捉图像中的全局关系,后者则使用因果注意力进行文本的自回归生成。这种架构上的不匹配使得多阶段训练不仅复杂,还需要大量的对齐数据来弥合两个模态之间的鸿沟。

原生 VLM 的探索并非由 NEO 首创。早期的 Fuyu、EVE 就开启了这条路,但它们所面临的一个重要问题是:如何在语言模型内部高效构建视觉表征?这个过程往往效率低下、训练不稳定,甚至会破坏原有的语言能力。后续研究尝试用知识蒸馏、混合训练数据或专家系统来缓解,但始终未能触及核心问题。NEO 的团队认为,问题的根源在于没有从根本上为多模态重新设计模型的基础组件。

NEO 团队的方案是构建一个统一的原生基元(Native VLM Primitive),这个基元同时具备视觉编码、跨模态对齐和多模态推理的能力。具体而言,NEO 引入了三项关键创新:多头原生注意力(Multi-Head Native Attention, MHNA)、原生旋转位置编码(Native Rotary Position Embeddings, Native-RoPE)以及 Pre-Buffer 和 Post-LLM 的两阶段架构设计。


图丨原生视觉-语言框架概览(来源:arXiv)

在注意力机制的设计上,NEO 采用了一种混合策略。对于图像 token,模型使用双向注意力,允许每个视觉 token 与图像中的所有其他 token 进行交互,这保留了视觉编码器捕捉全局空间关系的能力。而对于文本 token,则沿用传统的因果注意力,确保自回归生成的有效性。这种“帧级双向、词级因果”的混合注意力机制,让 NEO 能够在同一个统一架构中同时处理视觉的全局理解和语言的序列生成。

位置编码是 NEO 的另一个创新点。传统 VLM 在处理图像和文本时,往往简单地将预训练 LLM 的一维旋转位置编码(Rotary Position Embeddings, RoPE)扩展到二维或三维空间,但这种做法会破坏 LLM 原有的建模模式,损害其语言能力。NEO 采用的 Native-RoPE 则完全解耦了时间(T)、高度(H)和宽度(W)三个维度的索引和频率分配。


图丨NEO 框架(来源:arXiv)

对于文本,模型保持原有的时间维度索引,而将高度和宽度维度的索引置零;对于图像,每个视觉 token 拥有固定的时间索引和独特的空间坐标。这种设计不仅保持了与预训练 LLM 的兼容性,还能更好地捕捉图像中的局部语义依赖关系。

在训练策略上,NEO 采用了 Pre-Buffer 和 Post-LLM 的分离式预训练。Pre-Buffer 负责从头学习视觉感知,而 Post-LLM 则继承预训练 LLM 的强大语言能力和推理能力。在预训练阶段,Post-LLM 的参数被冻结,仅训练 Pre-Buffer 和新增的 Query-Key 头维度及归一化层。

这种设计既保护了 LLM 的语言知识不被低质量的图像-文本对破坏,又允许 Pre-Buffer 在大规模视觉数据上进行充分的学习。到了中期训练和监督微调阶段,Pre-Buffer 和 Post-LLM 被合并为一个统一的单体架构,模型能够自主地在编码、对齐和推理之间分配计算资源。

此外,Pre-Buffer 本身具有可复用性。这个经过大规模视觉数据预训练的模块可以作为开源资源,帮助后续研究者以更低的成本将新的 LLM 适配为 VLM。

值得注意的是,NEO 在训练效率上展现出令人惊讶的表现。整个预训练阶段仅使用了 3.45 亿图文对,这个数据规模远小于主流模块化 VLM 动辄数十亿的训练数据。在中期训练阶段,NEO 使用 4000 万样本进行视觉-语言对齐的强化;监督微调阶段则使用约 400 万条高质量指令数据。总计不到 4 亿的训练样本,NEO-2.2B 和 NEO-9B 两个版本就达到了与顶级模块化 VLM 相当的性能水平。


图丨与其他模块化和原生 VLM 的基准测试比较(来源:arXiv)

在多项标准评估基准上,NEO 的表现出色。在 MMMU(多学科多模态理解与推理)测试中,NEO-2.2B 获得了 48.6 分,超过了 InternVL2.5(43.6 分)和 HoVLE(32.2 分)等原生 VLM 竞品。

在文档理解任务如 AI2D 和 DocVQA 上,NEO-2.2B 分别达到 80.1 分和 89.9 分,接近甚至超过了一些采用强化学习的模块化模型。更大的 NEO-9B 版本在多个基准上的表现更加出色,在 MMBench 上获得 82.1 分,在 AI2D 上达到 83.1 分,与使用数十亿训练数据的 Qwen2-VL 和 InternVL2.5 处于同一竞争梯队。

当然,NEO 也还存在一些局限性。在知识密集型和 OCR(光学字符识别)重度任务上,如 MMMU、InfoVQA 和 TextVQA 等测试中,NEO 的表现相对落后。NEO-9B 在某些 OCR 任务如 DocVQA 和 InfoVQA 上的表现甚至不如 NEO-2.2B,这表明当前的训练语料库在这些特定领域可能存在不足。

研究团队在论文中表示,这些局限性主要源于训练数据的规模和质量限制,而非架构本身的问题。如果能够获得更大规模、更高质量的训练数据,NEO 的潜力还有很大的提升空间。

参考资料:

1.https://arxiv.org/pdf/2510.14979v1

2.https://github.com/EvolvingLMMs-Lab/NEO

运营/排版:何晨龙

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

注入强劲“人才引擎” 合肥市跨境电商人才培养基地揭牌成立

中安在线 浏览 6715 07-31

需求激增 流感药“新老对决”

北京商报 浏览 37 11-25

曾令旭:怎么解说一直强调胡金秋矮啊?杨瀚森效果都不见得这么好

直播吧 浏览 281 08-18

中国娱乐圈首例!男星杀害16岁女友被枪决

不八卦会死星人 浏览 8582 07-31

将于12月5日上市 别克至境世家广州车展发布

网易汽车 浏览 40 11-25

微软豪掷79亿美元投资阿联酋AI企业G42,加速中东AI设施建设

IT之家 浏览 33 11-04

人大物理系高材生创业卖轻食,父母:你是不是疯了?现年入超4亿元,完成3轮融资

红星资本局 浏览 2005 08-05

美国驻卡塔尔乌代德空军基地部分人员被建议周三晚前离开

环球网资讯 浏览 13 01-15

新赛季首周精彩纷呈!波兰终夺联合杯,萨巴梅总同享22!

网球之家 浏览 13 01-12

他塌房前的最后一部片,解禁了

独立鱼 浏览 7457 07-19

杜鹏:从五方面入手增强中青年养老“安全感”

国是直通车 浏览 96 08-22

1欧元买18架战机 罗马尼亚与荷兰以"象征性价格"签署购机合同

环球网资讯 浏览 29 11-05

王兴兴:对具身智能VLA架构持怀疑态度

网易科技报道 浏览 9590 08-10

新日股份在云南成立电动车新公司

证券时报 浏览 8492 07-24

擅自使用军机形象进行宣传 理想汽车回应

澎湃新闻 浏览 61 09-26

怎样才是一次理想的道歉?

观察者网 浏览 1539 08-07

又封杀了一个大明星,太狠了

独立鱼 浏览 706 08-16

莫迪与普京通电话 讨论俄乌冲突及双边关系等问题

财联社 浏览 5241 08-09

“青春正澎湃”上海网络大V沙龙在V聚场举办

澎湃新闻 浏览 5185 07-26

Casetify推出AirPods Max耳机套:让你化身“戴珍珠耳环的少女”

IT之家 浏览 6247 08-09

媒体:泽连斯基称不需中国提供安全保障 言论不太友好

新民晚报 浏览 120 08-23
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除沪ICP备20017958号-3