更新于 6 个月前
6 个月前
44c161b1f465 · 5.5GB
模型
架构llama
·
参数8.03B
·
量化Q4_K_M
4.9GB
投影仪
架构clip
·
参数312M
·
量化F16
624MB
参数
{"num_ctx":4096,"num_keep":4,"stop":["\u003c|start_header_id|\u003e","\u003c|end_header_id|\u003e","
124B
模板
{{ if .System }}<|start_header_id|>system<|end_header_id|> {{ .System }}<|eot_id|>{{ end }}{{ if .P
254B
自述文件
llava-llama3
是一个基于 Llama 3 Instruct 和 CLIP-ViT-Large-patch14-336 微调的 LLaVA 模型,由 XTuner 使用 ShareGPT4V-PT 和 InternVL-SFT 进行训练。