7 个月前更新
7 个月前
468836162de7 · 670MB
模型
架构bert
·
参数334M
·
量化F16
670MB
参数
{"num_ctx":512}
16B
许可证
Apache 许可证版本 2.0,2004 年 1 月
11kB
自述文件
mxbai-embed-large
截至 2024 年 3 月,此模型在 MTEB 上针对 Bert-large 大小的模型存档了 SOTA 性能。它优于 OpenAIs 的 text-embedding-3-large
模型等商业模型,并与 20 倍大小的模型性能相匹配。
mxbai-embed-large
在没有 MTEB 数据重叠的情况下进行训练,这表明该模型在多个领域、任务和文本长度上具有良好的泛化性。
用法
REST API
curl https://127.0.0.1:11434/api/embeddings -d '{
"model": "mxbai-embed-large",
"prompt": "Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering"
}'
Python 库
ollama.embeddings(model='mxbai-embed-large', prompt='Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering')
Javascript 库
ollama.embeddings({ model: 'mxbai-embed-large', prompt: 'Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering' })