4 月 3 日,美团技术团队正式发布原生多模态大模型 LongCat-Next。该模型突破了传统“语言基座+插件”的拼凑架构,通过将图像、语音与文本统一转化为同源的离散 Token,让 AI 第一次能够像处理文字一样,原生地“看”与“听”物理世界。

技术核心:DiNA 架构实现“模态内化”

为了打破模态间的隔阂,美团构建了 DiNA(离散原生自回归)架构,实现了多模态建模的深度统一:

实证性能:离散建模没有“天花板

LongCat-Next在多个维度上展现了超越专用模型的性能,有力回击了“离散化必然损失信息”的传统观点:

行业观察:通往物理世界 AI 的基石

长期以来,大模型一直是以语言为中心的系统。而 LongCat-Next 的意义在于,它证明了物理信息可以被离散化并像语言一样被建模。当 AI 拥有了统一的“母语”,它在调用工具、编写代码以及理解复杂图表时会变得更加聪明和直观。

目前,美团已将LongCat-Next 模型dNaViT 分词器全部开源。这一小尺寸、高潜力的原生离散架构,将为开发者构建能感知并作用于真实世界的 AI 提供重要工具。