Solar Pro 预览版:一款拥有 220 亿参数的先进大型语言模型 (LLM),旨在适应单一 GPU。

22b

19.7K 7 周前

自述文件

Solar Pro 预览版是一款先进的大型语言模型 (LLM),拥有 220 亿参数,针对单一 GPU 进行了优化。与参数量低于 300 亿的 LLM 相比,它展示了卓越的性能,并提供与更大模型相当的结果,例如参数量为 700 亿的 Llama 3.1。

Solar Pro 预览版使用深度上采样方法的增强版本开发,将参数量为 140 亿的 Phi-3-medium 模型扩展到 220 亿,旨在运行在具有 80GB VRAM 的 GPU 上。训练策略和数据集经过精心策划,与 Phi-3-medium 相比,显著提升了性能,尤其是在评估模型知识和指令遵循能力的基准测试中,例如 MMLU-Pro 和 IFEval。

作为官方 Solar Pro 的预发布版本,Solar Pro 预览版在语言覆盖范围和最大上下文长度方面存在限制,最大为 4K。尽管存在这些限制,该模型凭借其效率和能力脱颖而出,并且有潜力在未来扩展以支持更多语言和功能。

官方版本的 Solar Pro 计划于 2024 年 11 月发布,将包括扩展的语言支持和更长的上下文窗口。

参考

博客文章

Hugging Face