Solar Pro 预览:一款先进的大型语言模型 (LLM),拥有 220 亿个参数,旨在适应单个 GPU

22b

19.7K 7 周前

自述文件

Solar Pro 预览是一款先进的大型语言模型 (LLM),拥有 220 亿个参数,经过优化可在单个 GPU 上运行。与参数少于 300 亿的 LLM 相比,它展现出更优越的性能,并提供与更大模型(如拥有 700 亿个参数的 Llama 3.1)相当的结果。

Solar Pro 预览采用增强版深度上采样方法开发,将拥有 140 亿个参数的 Phi-3-medium 模型扩展至 220 亿个参数,旨在运行在具有 80GB VRAM 的 GPU 上。培训策略和数据集经过精心策划,导致与 Phi-3-medium 相比性能显著提升,特别是在评估模型知识和指令遵循能力的基准测试(如 MMLU-Pro 和 IFEval)上。

作为正式版 Solar Pro 的预发布版本,Solar Pro 预览在语言覆盖范围和最大上下文长度 (4K) 上存在限制。尽管存在这些限制,该模型凭借其效率和能力脱颖而出,在未来有可能扩展以支持更多语言和功能。

正式版 Solar Pro 计划于 2024 年 11 月发布,将包括扩展的语言支持和更长的上下文窗口。

参考资料

博客文章

Hugging Face