基于Llama和Llama 2的通用聊天模型,上下文大小为2K到16K。

7b 13b 33b

172.5K 15 months ago

Readme

Vicuna是一个聊天助手模型。它包含3种不同变体,每种变体有3种不同大小。v1.3通过微调Llama进行训练,上下文大小为2048个tokens。v1.5通过微调Llama 2进行训练,上下文大小为2048个tokens。v1.5-16k通过微调Llama 2进行训练,上下文大小为16k个tokens。所有三个变体都使用从ShareGPT收集的对话进行训练。

示例提示

What is the meaning of life? Explain it in 5 paragraphs.

参考

HuggingFace