更新于 14 个月前
14 个月前
d0ddded66c14 · 67GB
模型
架构llama
·
参数33.7B
·
量化F16
67GB
许可
LLAMA 2 社区许可协议 Llama 2 版本发布日期:2023 年 7 月 18 日“协议”是指
7.0kB
自述文件
Phind CodeLlama 是一个基于 CodeLlama 34B 微调的代码生成模型,用于指令使用场景。 该模型有两个版本:v1
和 v2
。 v1
基于 CodeLlama 34B 和 CodeLlama-Python 34B。 v2
是在 v1
的基础上迭代,使用额外的 1.5B 个高质量编程相关 token 进行训练。
用法
CLI
打开终端并运行 ollama run phind-codellama
API
示例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "phind-codellama",
"prompt":"Implement a linked list in C++"
}'
内存需求
- 34b 模型通常需要至少 32GB 的 RAM