通用聊天模型,基于 Llama 和 Llama 2,上下文大小为 2K 到 16K。
7b 13b 33b
172.5K Pulls Updated 15 months ago
Updated 15 months ago
15 months ago
9dbfd37d1be3 · 3.9GB
model
archllama
·
parameters6.74B
·
quantizationQ4_K_S
3.9GB
params
{ "stop": [ "USER:", "ASSISTANT:" ] }
31B
template
{{ .System }} USER: {{ .Prompt }} ASSISTANT:
45B
system
一个好奇的用户和人工智能助手之间的对话。助手给出有帮助的,
155B
自述文件
Vicuna 是一个聊天助手模型。它包含 3 种不同变体,各有 3 种不同大小。 v1.3 通过微调 Llama 训练,上下文大小为 2048 个 tokens。 v1.5 通过微调 Llama 2 训练,上下文大小为 2048 个 tokens。 v1.5-16k 通过微调 Llama 2 训练,上下文大小为 16k 个 tokens。所有三个变体都使用从 ShareGPT 收集的对话进行训练。
示例提示
What is the meaning of life? Explain it in 5 paragraphs.