基于 Llama 和 Llama 2 的通用聊天模型,上下文大小为 2K 到 16K 个 token。
7b 13b 33b
155.9K Pulls 更新于 12 个月前
更新于 12 个月前
12 个月前
d775a7c5294b · 9.0GB
模型
架构llama
·
参数13B
·
量化Q5_0
9.0GB
参数
{"stop":["USER:","ASSISTANT:"]}
31B
模板
{{ .System }} USER: {{ .Prompt }} ASSISTANT:
45B
系统
一个好奇的用户和人工智能助手之间的聊天。助手提供有帮助的,
154B
自述文件
Vicuna 是一个聊天助手模型。它包含 3 个不同变体,分别有 3 个不同尺寸。v1.3 通过微调 Llama 训练,上下文大小为 2048 个 token。v1.5 通过微调 Llama 2 训练,上下文大小为 2048 个 token。v1.5-16k 通过微调 Llama 2 训练,上下文大小为 16k 个 token。所有三个变体都使用从 ShareGPT 收集的对话进行训练。
示例提示
What is the meaning of life? Explain it in 5 paragraphs.