更新于 3 个月前
3 个月前
790764642607 · 1.2GB
模型
架构bert
·
参数567M
·
量化F16
1.2GB
许可证
MIT 许可证版权所有 (c) [年] [全名] 特此免费授予任何人获得本软件及其相关文档文件(“软件”)副本的许可,不受限制地处理软件,包括但不限于使用、复制、修改、合并、发布、分发、再许可和/或出售软件的权利,以及允许拥有软件的人员这样做,但须符合以下条件: 上述版权声明和本许可声明应包含在所有副本或重要部分中。 软件按“原样”提供,不提供任何形式的明示或暗示的担保,包括但不限于适销性、特定目的的适用性和不侵权的担保。 在任何情况下,作者或版权持有人均不对因软件或其使用或其他交易所产生的任何索赔、损害或其他责任负责,无论是在合同、民事侵权或其他方面的责任,即使已告知作者或版权持有人可能发生此类损害。
1.1kB
自述文件
BGE-M3 基于 XLM-RoBERTa 架构,以其在多功能性、多语言性和多粒度方面的多功能性而著称。
- 多功能性:它可以同时执行嵌入模型的三种常见检索功能:密集检索、多向量检索和稀疏检索。
- 多语言性:它可以支持 100 多种工作语言。
- 多粒度:它能够处理不同粒度的输入,从短句到长达 8192 个词元的长文档。
开源社区的基准测试
@misc{bge-m3,
title={BGE M3-Embedding: Multi-Lingual, Multi-Functionality, Multi-Granularity Text Embeddings Through Self-Knowledge Distillation},
author={Jianlv Chen and Shitao Xiao and Peitian Zhang and Kun Luo and Defu Lian and Zheng Liu},
year={2024},
eprint={2402.03216},
archivePrefix={arXiv},
primaryClass={cs.CL}
}