谷歌首个原生多模态嵌入模型 Gemini Embedding 2 发布:能让机器“理解”信息

→ 源码教程下载地址见 →右侧下载链接 →点“登录购买”→注册登录购买后可见→
→ 这里没有广告,只有干货! 给力项目更多教程,点此加入VIP会员,即可免费下载!
→ 每日分享你意想不到的网络思维!加入红帽VIP会员,感受一下网络赚钱的快感,点击进入了解。

3 月 11 日消息,北京时间今天凌晨,谷歌发布了全新 Gemini Embedding 2 模型。这是谷歌首个原生多模态嵌入模型,可以把文本、图像、视频和文档映射到同一个嵌入空间。

嵌入模型与生成式模型不同。Gemini 3 等生成式模型主要用于生成内容,而嵌入模型用于理解数据。嵌入模型会把文本、图像或视频转换为向量等数学形式,方便机器读取和分析。

通过语义搜索、分类和聚类等方式,此类模型可以理解语义关系,因此往往比传统关键词检索提供更准确、更具上下文的信息。

据了解,谷歌最早推出的 Embedding 模型只支持文本。Gemini Embedding 2 则支持文本、图像、视频、音频和文档,并能在 100 种语言中识别语义意图。

不同数据类型的处理限制如下:

  • 文本:上下文窗口最高 8192tokens

  • 图像:每次请求最多 6 张,支持 PNG 和 JPEG 格式

  • 视频:最多 120 秒输入,支持 MP4 和 MOV 格式

  • 音频:可直接处理音频数据,无需先进行转录

  • 文档:支持最多 6 页 PDF

谷歌在博客中表示,新模型可以简化复杂的数据处理流程,同时增强多模态应用能力。应用场景包括检索增强生成(RAG)、语义搜索、情感分析以及数据聚类。

模型还可以在一次请求中同时接收“图像 + 文本”等类型的多种输入,从而分析不同媒体类型之间的关系。

谷歌举例说,在诉讼取证阶段,Gemini 嵌入模型可以帮助法律专业人士快速找到关键证据。测试结果显示,在数百万条记录中,多模态嵌入能够提升检索精度和召回率,同时改善图像与视频搜索效果。

Gemini Embeddings 2(gemini-embedding-2-preview)目前已经通过 Gemini API 和 Vertex AI 提供公开预览。与此同时,gemini-embedding-001 仍然可用于只处理文本的应用场景。


温馨提示:
1、如非特别声明,本内容转载于网络,版权归原作者所有!
2、本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
3、本内容若侵犯到你的版权利益,请联系我们,会尽快给予删除处理!
我要投诉
红帽SEO工作室 » 谷歌首个原生多模态嵌入模型 Gemini Embedding 2 发布:能让机器“理解”信息
在线客服 购买特价主机

服务热线

139-3511-2134

关注红帽网络

微信客服

微信客服