一个通用的模型,参数量从30亿到700亿不等,适合入门级硬件。

3b 7b 13b 70b

230.5K 12个月前

自述文件

Orca Mini是基于Llama和Llama 2模型训练的,使用论文“Orca: Progressive Learning from Complex Explanation Traces of GPT-4”中定义的方法创建的Orca Style数据集。有两个版本可用。最初的基于Llama的Orca Mini,参数量分别为30亿、70亿和130亿;以及基于Llama 2的v3版本,参数量分别为70亿、130亿和700亿。

使用

CLI

打开终端并运行ollama run orca-mini

API

示例

  curl -X POST https://127.0.0.1:11434/api/generate -d '{
    "model": "orca-mini",
    "prompt":"Why is the sky blue?"
   }'

内存需求

  • 7b模型通常需要至少8GB的内存
  • 13b模型通常需要至少16GB的内存
  • 70b模型通常需要至少64GB的内存

参考

3b参数的原始来源: Pankaj Mathur

7b参数的原始来源: Pankaj Mathur

13b参数的原始来源: Pankaj Mathur

Ollama上的Orca Mini v3源代码

13b参数的原始来源: Pankaj Mathur

70b参数的来源: Pankaj Mathur

Orca: Progressive Learning from Complex Explanation Traces of GPT-4