一个基于 Llama 3 指令微调的 LLaVA 模型,在多个基准测试中取得了更好的分数。

视觉 8b

210.1K 6 个月前

自述文件

llava-llama3 是一个由 XTuner 使用 ShareGPT4V-PT 和 InternVL-SFT 从 Llama 3 指令 和 CLIP-ViT-Large-patch14-336 微调的 LLaVA 模型。

参考资料

Hugging Face

GitHub