Snowflake 的前沿嵌入模型。Arctic Embed 2.0 增加了多语言支持,同时不牺牲英语性能或可扩展性。
嵌入 568m
615 拉取次数 更新于 昨天
更新于昨天
昨天
5de93a84837d · 1.2GB
模型
架构bert
·
参数567M
·
量化F16
1.2GB
模板
Apache License Version 2.0, January 200
11kB
自述文件
Snowflake 很高兴地宣布推出 Arctic Embed 2.0,这是我们前沿嵌入模型的下一次迭代,现在支持多语言搜索。虽然我们之前的版本受到了客户、合作伙伴和开源社区的广泛好评,下载量达到数百万次,但我们一直收到一个请求:你们能让这个模型支持多语言吗?Arctic Embed 2.0 建立在我们之前版本的强大基础之上,增加了多语言支持,同时不牺牲英语性能或可扩展性,以满足更广泛用户群的需求,这些用户群涵盖多种语言和应用程序。
图 1. 参数少于 1B 的开源多语言嵌入模型的单向量密集检索性能。分数是 MTEB 检索和 CLEF(ELRA,2006)子集(涵盖英语、法语、西班牙语、意大利语和德语)的平均 nDCG@10。
Arctic Embed 2.0 的多样化和强大功能集
- 企业级吞吐量和效率: Arctic Embed 2.0 模型专为大规模企业需求而构建。即使是我们的“大型”模型,其参数也远低于 1B,并提供快速、高吞吐量的嵌入功能。根据内部测试,它可以在 NVIDIA A10 GPU 上轻松处理每秒超过 100 个文档(平均),并实现低于 10 毫秒的查询嵌入延迟,从而可以在经济实惠的硬件上进行实际部署。
- 对英语和非英语检索的不妥协质量: 尽管尺寸紧凑,但两种 Arctic Embed 2.0 模型在各种英语和非英语基准数据集上都实现了令人印象深刻的 NDCG@10 分数,这表明即使对于训练方案中未包含的语言,该模型也具有良好的泛化能力。这些令人印象深刻的基准分数使 Arctic Embed 2.0 成为前沿检索模型的领导者。
- 通过 Matryoshka 表示学习 (MRL) 实现可扩展检索: Arctic Embed 2.0 版本包含 Arctic Embed 1.5 中引入的相同的量化友好 MRL 功能,允许用户在对大型数据集执行搜索时降低成本并优化规模。对于这两种模型大小,用户都可以使用每个向量低至 128 字节实现高质量检索(比 OpenAI 广受欢迎的 text-embedding-3-large model1 的未压缩嵌入小 96 倍)。就像 Arctic Embed 1.5 一样,Arctic Embed 2.0 模型在压缩方案中也优于几个支持 MRL 的同类模型,具有更低的质量下降和更高的基准分数。
- 真正开源: Arctic Embed 2.0 模型在宽松的 Apache 2.0 许可下发布。