Solar Pro 预览版:一款先进的大型语言模型 (LLM),拥有 220 亿参数,旨在适应单 GPU

22b

2.74万 4 个月前

自述文件

Solar Pro 预览版是一款先进的大型语言模型 (LLM),拥有 220 亿参数,并针对在单个 GPU 上运行进行了优化。与参数少于 300 亿的 LLM 相比,它展现出卓越的性能,并且性能可与更大的模型(如拥有 700 亿参数的 Llama 3.1)相媲美。

Solar Pro 预览版采用深度向上扩展方法的增强版本开发,将拥有 140 亿参数的 Phi-3-medium 模型扩展到 220 亿参数,旨在在配备 80GB VRAM 的 GPU 上运行。训练策略和数据集经过精心策划,与 Phi-3-medium 相比,性能得到了显著提升,尤其是在 MMLU-Pro 和 IFEval 等基准测试中,这些基准测试评估了模型的知识和指令遵循能力。

作为官方 Solar Pro 的预发布版本,Solar Pro 预览版在语言覆盖范围和最大上下文长度(4K)方面存在限制。尽管存在这些限制,但该模型仍以其效率和能力而脱颖而出,并且未来有可能扩展以支持更多语言和功能。

计划于 2024 年 11 月发布的 Solar Pro 官方版本将包含更广泛的语言支持和更长的上下文窗口。

参考

博客文章

Hugging Face