Solar Pro 预览版:一款先进的大型语言模型 (LLM),拥有 220 亿参数,设计为可在单个 GPU 上运行。
220亿
22.6K 拉取请求 更新于 2 个月前
2 个月前更新
2 个月前
9a8c71c441ca · 13GB
模型
架构solar
·
参数221亿
·
量化Q4_K_M
13GB
参数
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
模板
{{- range $index, $_ := .Messages }}<|im_start|>{{ .Role }} {{ .Content }} {{- if eq (len (slice $.M
232B
许可证
MIT 许可证 版权所有 (c) Upstage Corporation。特此免费授予任何人获得本软件及相关文档文件(下称“软件”)副本的许可,无条件地对软件进行处理,包括但不限于使用、复制、修改、
1.1kB
自述文件
Solar Pro 预览版是一款先进的大型语言模型 (LLM),拥有 220 亿参数,经过优化可在单个 GPU 上运行。与参数少于 300 亿的 LLM 相比,它展现出卓越的性能,并提供与更大模型(例如拥有 700 亿参数的 Llama 3.1)相当的结果。
Solar Pro 预览版使用改进的深度上采样方法开发,它将一个拥有 140 亿参数的 Phi-3-medium 模型扩展到 220 亿参数,设计用于在具有 80GB VRAM 的 GPU 上运行。训练策略和数据集经过精心策划,与 Phi-3-medium 相比,性能得到了显著提升,尤其是在 MMLU-Pro 和 IFEval 等基准测试中,这些基准测试评估模型的知识和指令遵循能力。
作为官方 Solar Pro 的预发布版本,Solar Pro 预览版在语言覆盖范围和最大上下文长度 (4K) 上存在一些限制。尽管存在这些限制,该模型因其效率和能力而脱颖而出,并有可能在未来扩展以支持更多语言和功能。
官方版本的 Solar Pro 计划于 2024 年 11 月发布,将包含扩展的语言支持和更长的上下文窗口。