自述文件
Phind CodeLlama是一个基于CodeLlama 34B的代码生成模型,针对指令使用场景进行了微调。该模型有两个版本:v1
和v2
。v1
基于CodeLlama 34B和CodeLlama-Python 34B。v2
是在v1
的基础上进行迭代,在15亿个高质量的编程相关数据上进行了额外训练。
使用方法
命令行界面
打开终端并运行ollama run phind-codellama
API
示例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "phind-codellama",
"prompt":"Implement a linked list in C++"
}'
内存需求
- 34b模型通常至少需要32GB的RAM