更新于 15 个月前
15 个月前
0a9dfb4ddb84 · 4.7GB
模型
架构llama
·
参数6.74B
·
量化Q5_K_S
4.7GB
模板
[INST] <<SYS>>{{ .System }}<</SYS>> {{ .Prompt }} [/INST]
59B
参数
{ "rope_frequency_base": 1000000, "stop": [ "[INST]", "[/INST]", "<<
120B
许可证
# Llama 代码可接受使用政策 Meta 致力于促进其工具的安全和公平使用 an
4.8kB
许可证
LLAMA 2 社区许可协议 Llama 2 版本发布日期:2023 年 7 月 18 日 “协议” 指的是
7.0kB
自述文件
Code Llama 是一个用于生成和讨论代码的模型,构建于 Llama 2 之上。它旨在使开发人员的工作流程更快更高效,并使人们更容易学习如何编码。它可以生成代码和关于代码的自然语言。Code Llama 支持当今使用的许多最流行的编程语言,包括 Python、C++、Java、PHP、Typescript (Javascript)、C#、Bash 等。
参数计数
参数计数 | ||
---|---|---|
70 亿 | 查看 | ollama run codellama:7b |
130 亿 | 查看 | ollama run codellama:13b |
340 亿 | 查看 | ollama run codellama:34b |
700 亿 | 查看 | ollama run codellama:70b |
使用方法
命令行界面
ollama run codellama "Write me a function that outputs the fibonacci sequence"
应用程序编程接口
curl -X POST http://127.0.0.1:11434/api/generate -d '{
"model": "codellama",
"prompt": "Write me a function that outputs the fibonacci sequence"
}'
变体
instruct |
经过微调,以自然语言生成有帮助和安全的答案 |
python |
Code Llama 的一个专门变体,在 100B 个 Python 代码 token 上进一步微调 |
code |
用于代码补全的基础模型 |
示例提示
提问
ollama run codellama:7b-instruct 'You are an expert programmer that writes simple, concise code and explanations. Write a python function to generate the nth fibonacci number.'
中间填充 (FIM) 或代码填充
ollama run codellama:7b-code '<PRE> def compute_gcd(x, y): <SUF>return result <MID>'
中间填充 (FIM) 是代码补全模型支持的一种特殊提示格式,可以完成两个已编写代码块之间的代码。Code Llama 期望代码填充具有特定格式
<PRE> {prefix} <SUF>{suffix} <MID>
<PRE>
、<SUF>
和 <MID>
是引导模型的特殊 token。
代码审查
ollama run codellama '
Where is the bug in this code?
def fib(n):
if n <= 0:
return n
else:
return fib(n-1) + fib(n-2)
'
编写测试
ollama run codellama "write a unit test for this function: $(cat example.py)"
代码补全
ollama run codellama:7b-code '# A simple python function to remove whitespace from a string:'