基于 Llama 和 Llama 2 的通用聊天模型,上下文长度为 2K 到 16K。

7b 13b 33b

172.5K 15 个月前

自述

Vicuna 是一个聊天助手模型。 它包括 3 种不同尺寸的 3 种不同变体。 v1.3 通过微调 Llama 训练,上下文长度为 2048 个 tokens。 v1.5 通过微调 Llama 2 训练,上下文长度为 2048 个 tokens。 v1.5-16k 通过微调 Llama 2 训练,上下文长度为 16k 个 tokens。 所有三种变体都使用从 ShareGPT 收集的对话进行训练。

示例提示

What is the meaning of life? Explain it in 5 paragraphs.

参考

HuggingFace