一个紧凑而强大的 10.7B 大型语言模型,专为单轮对话而设计。

10.7b

58K 10 个月前

自述文件

Solar 是第一个开源 107 亿参数的语言模型。它体积紧凑,但功能强大,在参数小于 30B 的模型中展现出最先进的性能。

该模型利用 Llama 2 架构,并采用深度上采样技术,将 Mistral 7B 的权重整合到上采样层。

在 H6 基准测试中,该模型的性能优于参数高达 30B 的模型,甚至超越了 Mixtral 8X7B 模型。

参考资料

HuggingFace

Upstage AI