一个从 Llama 3 Instruct 微调的 LLaVA 模型,在多个基准测试中得分更高。

视觉 8b

210.1K 6 个月前

自述文件

llava-llama3 是一个由 XTuner 使用 ShareGPT4V-PT 和 InternVL-SFT 对 Llama 3 Instruct 和 CLIP-ViT-Large-patch14-336 进行微调的 LLaVA 模型。

参考资料

Hugging Face

GitHub