更新于 9 个月前
9 个月前
44c161b1f465 · 5.5GB
模型
archllama
·
parameters8.03B
·
quantizationQ4_K_M
4.9GB
投影器
archclip
·
parameters312M
·
quantizationF16
624MB
params
{ "num_ctx": 4096, "num_keep": 4, "stop": [ "<|start_header_id|>", "<|en
124B
template
{{ if .System }}<|start_header_id|>system<|end_header_id|> {{ .System }}<|eot_id|>{{ end }}{{ if .P
254B
自述文件
llava-llama3
是一个 LLaVA 模型,通过 XTuner 基于 Llama 3 Instruct 和 CLIP-ViT-Large-patch14-336,使用 ShareGPT4V-PT 和 InternVL-SFT 进行微调。