来自 mixedbread.ai 的最先进的大型嵌入模型

嵌入 335m

541.5K 6 个月前

自述文件

mxbai-embed-large

截至 2024 年 3 月,该模型在 MTEB 上为 Bert-large 大小模型存档了 SOTA 性能。它优于 OpenAIs 的 text-embedding-3-large 模型等商业模型,并与模型 20 倍其大小的性能相匹配。

mxbai-embed-large 训练时没有 MTEB 数据的重叠,这表明该模型在多个领域、任务和文本长度上泛化良好。

用法

REST API

curl https://127.0.0.1:11434/api/embeddings -d '{
  "model": "mxbai-embed-large",
  "prompt": "Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering"
}'

Python 库

ollama.embeddings(model='mxbai-embed-large', prompt='Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering')

Javascript 库

ollama.embeddings({ model: 'mxbai-embed-large', prompt: 'Represent this sentence for searching relevant passages:  The sky is blue because of Rayleigh scattering' })

参考资料

博客文章

Hugging Face