13个月前更新
13个月前
d9b1df212f90 · 26GB
模型
架构falcon
·
参数41.8B
·
量化Q4_1
26GB
自述文件
Falcon 是一个由技术创新研究所 (TII)——阿布扎比政府先进技术研究委员会下属的负责技术研究的研究中心——构建的一系列高性能大型语言模型。
命令行界面
ollama run falcon "Why is the sky blue?"
API
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "falcon",
"prompt": "Why is the sky blue?"
}'
参数计数
参数数量 | 推荐内存 | ||
---|---|---|---|
70亿 | 8GB | 查看 | ollama run falcon:7b |
400亿 | 32GB | 查看 | ollama run falcon:40b |
1800亿 | 192GB | 查看 | ollama run falcon:180b |
变体
聊天 |
聊天模型在混合了多个大型对话数据集的聊天和指令数据集上进行了微调。 |
指令 |
指令模型遵循指令,并在baize 指令数据集上进行了微调。 |
文本 |
文本模型是没有任何对话微调的基础模型,最适合用于简单的文本补全。 |
Falcon 180B
截至 2023 年 9 月,拥有 1800 亿参数的模型 Falcon 180B 是性能最佳的公开发布的 LLM。它的性能介于 OpenAI 的 GPT 3.5 和 GPT 4 之间。运行 Falcon 180B 需要推荐使用至少 192GB 内存的强大系统。
注意:Falcon 180B 采用与较小模型不同的许可证,在某些条件下限制商业用途。请参阅模型详情和许可证以了解更多信息。