更新于 4 个月前
4 个月前
8f665c54f08a · 12GB
model
架构solar
·
参数22.1B
·
量化Q4_0
12GB
params
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
template
{{- range $index, $_ := .Messages }}<|im_start|>{{ .Role }} {{ .Content }} {{- if eq (len (slice $.M
232B
license
MIT 许可证 版权所有 (c) Upstage Corporation。 在此授予免费许可,予任何人
1.1kB
自述文件
Solar Pro 预览版是一款先进的大型语言模型 (LLM),拥有 220 亿参数,并针对在单个 GPU 上运行进行了优化。 与参数少于 300 亿的 LLM 相比,它表现出卓越的性能,并且交付的结果可与更大的模型相媲美,例如拥有 700 亿参数的 Llama 3.1。
Solar Pro 预览版使用深度向上扩展方法的增强版本开发,将拥有 140 亿参数的 Phi-3-medium 模型扩展到 220 亿,旨在在具有 80GB VRAM 的 GPU 上运行。 训练策略和数据集经过精心策划,与 Phi-3-medium 相比,性能得到了显著提升,尤其是在 MMLU-Pro 和 IFEval 等基准测试中,这些基准测试评估模型的知识和指令遵循能力。
作为官方 Solar Pro 的预发布版本,Solar Pro 预览版在语言覆盖范围和最大上下文长度 4K 方面存在限制。 尽管存在这些限制,但该模型仍以其效率和能力而著称,并有可能在未来扩展以支持更多语言和功能。
计划于 2024 年 11 月发布的官方版本 Solar Pro 将包括扩展的语言支持和更长的上下文窗口。