更新于 12 个月前
12 个月前
ea05ed122e9e · 7.4GB
模型
架构llama
·
参数13B
·
量化Q4_K_S
7.4GB
模板
[INST] <<SYS>>{{ .System }}<</SYS>> {{ .Prompt }} [/INST]
59B
参数
{"rope_frequency_base":1000000,"stop":["[INST]","[/INST]","\u003c\u003cSYS\u003e\u003e","\u003c\u003
120B
许可证
# Llama 代码可接受使用政策 Meta 致力于促进其工具的安全和公平使用,并致力于确保其工具
4.8kB
许可证
LLAMA 2 社区许可协议 Llama 2 版本发布日期:2023 年 7 月 18 日 “协议” 指的是
7.0kB
自述文件
Code Llama 是一个用于生成和讨论代码的模型,它是基于 Llama 2 构建的。它旨在为开发人员提高工作效率,并使人们更容易学习如何编写代码。它可以生成代码和关于代码的自然语言。Code Llama 支持当今使用的大多数流行编程语言,包括 Python、C++、Java、PHP、Typescript(Javascript)、C#、Bash 等等。
参数计数
参数计数 | ||
---|---|---|
70 亿 | 查看 | ollama run codellama:7b |
130 亿 | 查看 | ollama run codellama:13b |
340 亿 | 查看 | ollama run codellama:34b |
700 亿 | 查看 | ollama run codellama:70b |
用法
CLI
ollama run codellama "Write me a function that outputs the fibonacci sequence"
API
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "codellama",
"prompt": "Write me a function that outputs the fibonacci sequence"
}'
变体
instruct |
微调以在自然语言中生成有帮助和安全的答案 |
python |
Code Llama 的一个专门变体,进一步微调了 1000 亿个 Python 代码令牌。 |
code |
用于代码补全的基模型 |
示例提示
提问
ollama run codellama:7b-instruct 'You are an expert programmer that writes simple, concise code and explanations. Write a python function to generate the nth fibonacci number.'
中间填充 (FIM) 或填充
ollama run codellama:7b-code '<PRE> def compute_gcd(x, y): <SUF>return result <MID>'
中间填充 (FIM) 是代码补全模型支持的一种特殊提示格式,可以完成两个已编写代码块之间的代码。Code Llama 期待用于填充代码的特定格式
<PRE> {prefix} <SUF>{suffix} <MID>
<PRE>
、<SUF>
和 <MID>
是指导模型的特殊标记。
代码审查
ollama run codellama '
Where is the bug in this code?
def fib(n):
if n <= 0:
return n
else:
return fib(n-1) + fib(n-2)
'
编写测试
ollama run codellama "write a unit test for this function: $(cat example.py)"
代码补全
ollama run codellama:7b-code '# A simple python function to remove whitespace from a string:'