谷歌正式推出全新 Gemini Embedding2模型。作为谷歌首个原生多模态嵌入模型,它打破了传统模型仅支持单一数据类型的局限,能够将文本、图像、视频、音频和文档同时映射到同一个数学向量空间中,从而实现跨媒体的深度理解。

与专注于内容创作的 Gemini3等生成式模型不同,嵌入模型的核心职能是“理解”。它通过将复杂数据转化为机器可读的向量,帮助系统识别语义关系,在搜索精度和上下文关联上远超传统的关键词检索。

image.png

Gemini Embedding2的技术特性与突破:

谷歌在官方博客中举例称,在法律诉讼取证等复杂场景下,Gemini Embedding2能在数百万条跨媒体记录中快速定位关键证据,大幅提升了检索的精度与召回率。目前,该模型已通过 Gemini API 和 Vertex AI 提供公开预览。

对于开发者而言,这一更新意味着可以更轻松地构建处理复杂现实数据的 AI 应用,让机器不仅能“看”和“听”,更能理解不同信息背后的统一逻辑。