Solar Pro 预览版:一款拥有 220 亿参数的先进大型语言模型 (LLM),旨在适配单个 GPU

22b

19.7K 7 周前

自述文件

Solar Pro 预览版是一款拥有 220 亿参数的先进大型语言模型 (LLM),经过优化可在单个 GPU 上运行。与参数量小于 300 亿的 LLM 相比,它表现出优异的性能,并且提供与更大型模型(如拥有 700 亿参数的 Llama 3.1)相当的结果。

Solar Pro 预览版是使用深度上采样方法的增强版本开发的,将拥有 140 亿参数的 Phi-3-medium 模型扩展至 220 亿,旨在运行在拥有 80GB VRAM 的 GPU 上。训练策略和数据集经过精心策划,与 Phi-3-medium 相比,在性能方面取得了显着提升,特别是在 MMLU-Pro 和 IFEval 等基准测试中,这些基准测试评估了模型的知识和指令遵循能力。

作为正式 Solar Pro 的预发布版本,Solar Pro 预览版在语言覆盖范围和最大上下文长度 (4K) 上有限制。尽管存在这些限制,该模型仍以其效率和能力脱颖而出,并具有未来扩展以支持更多语言和功能的潜力。

Solar Pro 正式版计划于 2024 年 11 月发布,将包括扩展的语言支持和更长的上下文窗口。

参考

博客文章

Hugging Face