当前位置:首页 > 娱乐 > 智子引擎开源多模态MoE大模型,可高效扩展模型容量

智子引擎开源多模态MoE大模型,可高效扩展模型容量

2026-01-03 17:02:54 [综合] 来源:鞍山市某某贸易培训学校

转载整理自 智子引擎
量子位 | 公众号 QbitAI

随着多模态大模型的智引展模快速发展,当前主流多模态大模型具备完成多种任务的擎开能力(图文描述、视觉问答、源多忻州市某某仪器仪表业务部文字识别、模态模型图标理解、可高目标检测等)。效扩型容但是智引展模,这些不同的擎开多模态任务往往具有完全不同的数据分布,导致在模型训练过程中遇到“多任务冲突”的源多问题,尤其在模型参数量较小时,模态模型这种问题尤为突出。可高如何才能在有限增加模型参数量以及训练成本的效扩型容条件下,高效地扩展模型容量,智引展模忻州市某某仪器仪表业务部缓解多模态大模型“多任务冲突”问题?

近日,擎开针对这一挑战,源多来自大模型初创公司智子引擎的研究团队开源了基于MoE架构的多模态大模型Awaker2.5-VL。Awaker2.5-VL通过设置多个专家,扩展了模型在不同任务上的能力,有效地缓解了多模态“多任务冲突”的问题。该模型还对MoE中门控网络的路由策略进行了细致的研究,并设计了一个简单且十分有效的路由策略,提升了模型训练的稳定性。目前,Awaker2.5-VL的论文和代码已经公开,后续还会更新更强的版本。



论文地址:
https://arxiv.org/abs/2411.10669

代码仓库:
https://github.com/MetabrainAGI/Awaker



模型架构

Awaker2.5-VL采用参数高效的LoRA-MoE架构,如下图(左)所示。该架构包含多个Task Expert和一个Global Expert,分别学习专用知识和通用知识,每个专家都是一个LoRA结构。此外,该架构还包含一个门控网络用于控制专家的激活。这种MoE架构可以在Attention、MLP等结构中执行快速插入的操作,并且还可以通过调整每个LoRA的秩自行调整模型的参数量。Awaker2.5-VL还设计了一个简化版的MoE架构,如下图(右)所示,在这个简化版MoE中,门控网络被移除,而是由其它层MoE共享的路由结果控制专家的激活。Awaker2.5-VL在基座模型中的不同模块穿插使用这两种MoE架构。



Awaker2.5-VL采用的两种MoE架构

Awaker2.5-VL针对MoE架构中门控网络的路由策略进行了研究,并设计了一种简单且有效的Instance-level的路由策略。该策略将图片和问题的Embedding作为门控网络的输入,并且为了保持训练和推理时路由的一致性,训练时数据中的label部分不参与路由。此外,与传统MoE不同的是,Awaker2.5-VL每一层MoE的门控网络都共享相同的输入。这种简单高效的路由策略降低了模型的复杂度,提高了模型的稳定性。

模型训练

Awaker2.5-VL以Qwen2-VL-7B-Instruct作为基座模型进行实现,总模型参数量为10.8B。训练分为三个阶段,如下图所示。第一阶段,初始化训练。在该阶段基座模型被冻结,并设置一个单LoRA进行训练。第二阶段,MoE训练。该阶段进行整个MoE模块的训练(包括每个专家和门控网络),其中每个专家都使用第一阶段训练的LoRA进行参数初始化。第三阶段,指令微调阶段。该阶段将MoE的门控网络冻结,仅训练每个“专家”,将进一步加强模型的指令跟随能力。同时,该阶段的训练策略也适用于基座模型在其他下游任务微调的场景。



Awaker2.5-VL的三阶段训练过程

Awaker2.5-VL一共使用了1200万的指令数据进行模型训练,其中包括700万的英文数据和500万的中文数据。英文数据主要来源于开源数据,包括Cambrian (2M)、LLaVAOneVision (4M)、Infinity-MM (800K)、MathV360k (360K)等。中文数据则是智子引擎团队的自建数据集,包括图文描述、图文问答、目标检测、文字识别等多种任务数据。

模型性能

Awaker2.5-VL主要在MME-Realworld系列和MMBench系列Benchmark上分别进行了中文测评和英文测评。MME-Realworld是当前最难、规模最大多模态评测基准,而MMBench是主流多模态大模型参评最多的评测基准之一。

Awaker2.5-VL在MME-Realworld和MME-Realworld-CN都位列榜首,且是目前唯一在该Benchmark上“及格”(超过60分)的模型。考虑到MME-Realworld主要面向自动驾驶、遥感、视频监控等复杂场景,Awaker2.5-VL在MME-Realworld上的出色表现很好地展示它在落地应用中的巨大潜力。





Awaker2.5-VL分别在MMBench、MMBench_v1.1、MMBench_CN、MMBench_CN_v1.1四个榜单进行了测评,并且分别以英文能力平均分数(MMBench和MMBench_v1.1)和中文能力平均分数(MMBench_CN和MMBench_CN_v1.1)进行排序。Awaker2.5-VL在中文场景和英文场景中分别位列第9和第7。在同量级参数量的模型中,Awaker2.5-VL表现远超其他模型。这就是说Awaker2.5-VL能够兼顾模型效果和资源消耗,也进一步证明它具有极大的落地应用价值。





模型应用

2024年,智子引擎已经成功地将Awaker2.5-VL应用于多个复杂的实际场景,包括国家电网、社会治理、服务型机器人等。在即将到来的2025年,智子引擎将继续探索Awaker2.5-VL更多的落地应用场景。为了鼓励这种探索,智子引擎选择开源Awaker2.5-VL,基于战略合作伙伴清昴智能的华为昇腾原生工具链MLGuider-Ascend,Awaker2.5-VL已适配昇腾全产品线,希望更多生态伙伴能够参与进来。同时,为了加速国产化AI进程,Awaker系列开源模型与清昴智能已形成标准的昇腾国产方案,将上线至昇腾平台,欢迎大家关注和使用。

(责任编辑:休闲)

推荐文章
  • 这个59岁的胖子,还在表演“蝎子摆尾”

    这个59岁的胖子,还在表演“蝎子摆尾” 12月20日,在哥伦比亚传奇队长耶佩斯的告别赛上,59岁的门将雷内-伊基塔再次上演了一记经典的“蝎子摆尾”。认真来说,这记蝎子摆尾的观赏性并不高:伊基塔看起来明显发福了,而这个球都不是完整的双脚触球, ...[详细]
  • 奥运会之后是否会退役?马龙回应

    奥运会之后是否会退役?马龙回应   “如果这是你奥运生涯的最后一舞,你认为这次比赛是完美的谢幕吗?”北京时间8月10日,在巴黎奥运会乒乓球男子团体决赛后的新闻发布会上,一位中国记者向马龙提了这样一个问题,马龙稍微思考了片刻,然后很平 ...[详细]
  • 小学最重要的科目,不是英语不是数学,用错力的孩子初中后悔莫及

    小学最重要的科目,不是英语不是数学,用错力的孩子初中后悔莫及 小学六年,很多家长喜欢在数学和英语上,让孩子多花力气,英语班、奥数班能报就都给孩子报了。班里已经有孩子学完了高中英语,达到PET优秀水平;也有学奥数的孩子,在澳洲AMC竞赛中获奖。但一提到语文,很多家 ...[详细]
  • 马龙“最后一舞”?樊振东退役倒计时?

    马龙“最后一舞”?樊振东退役倒计时?   来源:新民晚报  3场5局鏖战,3个3-2!巴黎奥运会乒乓球项目9日决出男团金牌,中国队3:0战胜瑞典队,连续第五次夺冠。35岁的老将马龙收获第六枚奥运金牌,成为中国队奥运史上获得金牌最多的选手。 ...[详细]
  • 岛内怒了:台“海巡署”竟在五星级酒店吃大餐

    岛内怒了:台“海巡署”竟在五星级酒店吃大餐   来源:参考消息  参考消息网1月1日报道 据台湾中天新闻网1月1日报道,解放军日前环台军演,有媒体爆出台当局海洋事务主管部门负责人管碧玲及海巡官员2025年12月31日在高雄吃“五星级大餐”,引发 ...[详细]
  • 举铁成金!举重队5金收官

    举铁成金!举重队5金收官   【举铁成金!#举重队5金收官#】祝贺#中国举重队开五金店#!  李发彬:男子举重61公斤级冠军  侯志慧:女子举重49公斤级冠军  罗诗芳:女子举重59公斤级冠军  刘焕华:男子举重102公斤级冠 ...[详细]
  • 中国供应商的高光时刻!“中国制造”闪耀巴黎奥运会

    中国供应商的高光时刻!“中国制造”闪耀巴黎奥运会   很多人来到巴黎买吉祥物的时候,内心特矛盾,不仅仅是因为贵,还因为它是Made in China中国制造的,大老远来到巴黎,花钱把它买回到中国去。其实在巴黎奥运的赛场上见到中国制造是很容易的,像乒乓 ...[详细]
  • 马龙说“我的奥运最后一舞很完美”

    马龙说“我的奥运最后一舞很完美”   来源:北青体育  [马龙说我的奥运最后一舞很完美]  北京时间8月9日晚,巴黎奥运会结束了男子团体的决赛。中国队击败了瑞典队,蝉联了该项目的冠军。马龙在赛后表示,这是他奥运征战生涯的最后一舞,他表 ...[详细]
  • 普京突然穿上了军装

    普京突然穿上了军装   来源:牛弹琴  普京突然穿上了军装。  对总一身西装革履的普京来说,穿不穿军装,什么时候穿军装,本身就是一个强烈信号。  在俄乌局势关键时刻,普京可能觉得,有穿军装的必要了。  服饰是身份的宣言, ...[详细]
  • 马龙感谢在身边和身后的所有人

    马龙感谢在身边和身后的所有人   来源:北青体育  #马龙感谢在身边和身后的所有人#  @captain龙 发博:从伦敦到巴黎⏰⏰⏰🗼🗼🗼走了很远很久的一段路辛苦了很完美  谢谢站在我身边和身后的所有人,🇨🇳🏓🏅🏅🏅🏅🏅🐮🐮🐮   ...[详细]