通用聊天模型,基于 Llama 和 Llama 2,上下文大小为 2K 至 16K。
7b 13b 33b
172.5K Pulls Updated 15 months ago
Updated 15 months ago
15 个月前更新
9151c66c59cf · 9.0GB
model
archllama
·
parameters13B
·
quantizationQ5_K_S
9.0GB
params
{ "stop": [ "USER:", "ASSISTANT:" ] }
31B
template
{{ .System }} USER: {{ .Prompt }} ASSISTANT:
45B
system
乐于助人的人工智能助手与好奇用户之间的对话。助手给出有帮助的,
154B
Readme
Vicuna 是一个聊天助手模型。它包括 3 种不同变体,3 种不同大小。 v1.3 通过微调 Llama 训练,上下文大小为 2048 个 tokens。 v1.5 通过微调 Llama 2 训练,上下文大小为 2048 个 tokens。 v1.5-16k 通过微调 Llama 2 训练,上下文大小为 16k 个 tokens。所有三个变体都使用从 ShareGPT 收集的对话进行训练。
示例提示
What is the meaning of life? Explain it in 5 paragraphs.