基于 Llama 和 Llama 2 的通用聊天模型,上下文大小从 2K 到 16K 不等。

7b 13b 33b

155.9K 12 个月前

自述文件

Vicuna 是一个聊天助理模型。它包含 3 种不同的变体,三种不同的尺寸。v1.3 通过微调 Llama 进行训练,上下文大小为 2048 个 token。v1.5 通过微调 Llama 2 进行训练,上下文大小为 2048 个 token。v1.5-16k 通过微调 Llama 2 进行训练,上下文大小为 16k 个 token。所有三种变体都是使用从 ShareGPT 收集的对话进行训练的。

示例提示

What is the meaning of life? Explain it in 5 paragraphs.

参考资料

HuggingFace