一个基于 Llama 3 Instruct 微调的 LLaVA 模型,在多个基准测试中取得了更好的成绩。

视觉 8b

226.3K 7 个月前

自述文件

llava-llama3 是一个 LLaVA 模型,基于 Llama 3 Instruct 和 CLIP-ViT-Large-patch14-336,并使用 ShareGPT4V-PT 和 InternVL-SFT 通过 XTuner 进行微调。

参考

Hugging Face

GitHub