更新于 14 个月前
14 个月前
7ba4e94413d0 · 20GB
模型
架构llama
·
参数33.7B
·
量化Q4_K_M
20GB
许可
LLAMA 2 COMMUNITY LICENSE AGREEMENT Llama 2 版本发布日期: 2023 年 7 月 18 日 “协议” 指
7.0kB
自述文件
Phind CodeLlama 是一个基于 CodeLlama 34B 微调的代码生成模型,专门用于指导用例。该模型有两个版本:v1
和 v2
。v1
基于 CodeLlama 34B 和 CodeLlama-Python 34B。 v2
是 v1
的迭代版本,在额外的 1.5B 个高质量编程相关数据上进行了训练。
用法
CLI (命令行界面)
打开终端并运行 ollama run phind-codellama
API (应用程序编程接口)
示例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "phind-codellama",
"prompt":"Implement a linked list in C++"
}'
内存要求
- 34b 模型通常至少需要 32GB 的 RAM