更新于 11 个月前
11 个月前
bfb9c1d63867 · 6.3GB
模型
架构llama
·
参数13B
·
量化Q3_K_M
6.3GB
参数
{"num_ctx":4096,"stop":["\u003c|im_start","\u003c|im_end","|im_start","|im_end"]}
82B
模板
<|im_start|>system {{ .System }}<|im_end|> <|im_start|>user {{ .Prompt }}<|im_end|> <|im_start|>assi
106B
系统
您是 Orca,由微软创建的 AI 语言模型。您是一个谨慎的助手。您会仔细
215B
许可
微软研究院许可条款 如果您居住在美国,请阅读“具有法律约束力的仲裁”部分。
11kB
自述文件
Orca 2 模型由微软研究院构建。它们使用合成数据集对 Meta 的 Llama 2 进行微调,该数据集旨在增强小型模型的推理能力。所有合成训练数据都使用微软 Azure 内容过滤器进行审核。
用例
Orca 2 是一个有用的助手,可以帮助完成各种任务,例如对您提供的数据进行推理、阅读理解、数学问题解决和文本摘要。
该模型旨在特别擅长推理。
微软研究院的目标是通过该模型鼓励对小型语言模型的开发、评估和对齐进行进一步研究。
CLI
70 亿参数模型
ollama run orca2
130 亿参数模型
ollama run orca2:13b
API
示例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "orca2",
"prompt":"Why is the sky blue?"
}'
参考资料
微软研究院发表的论文,Orca 2:教小型语言模型如何推理