来自mixedbread.ai的最先进的大型嵌入模型

嵌入 3.35亿

59.7万 7个月前

自述文件

mxbai-embed-large

截至2024年3月,该模型在MTEB上实现了Bert-large尺寸模型的SOTA性能。它优于OpenAI的text-embedding-3-large模型等商业模型,并且性能与体积是其20倍的模型相当。

mxbai-embed-large的训练数据与MTEB数据没有重叠,这表明该模型在多个领域、任务和文本长度上具有良好的泛化能力。

用法

REST API

curl https://127.0.0.1:11434/api/embeddings -d '{
  "model": "mxbai-embed-large",
  "prompt": "Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering"
}'

Python库

ollama.embeddings(model='mxbai-embed-large', prompt='Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering')

Javascript库

ollama.embeddings({ model: 'mxbai-embed-large', prompt: 'Represent this sentence for searching relevant passages:  The sky is blue because of Rayleigh scattering' })

参考文献

博客文章

Hugging Face