一款紧凑而强大的 107 亿参数大型语言模型,专为单轮对话而设计。

10.7b

7.62万 13 个月前

Readme

Solar 是首个开源的 107 亿参数语言模型。它结构紧凑,功能却非常强大,并在参数小于 300 亿的模型中展示了最先进的性能。

该模型利用 Llama 2 架构,并采用深度向上扩展技术,将 Mistral 7B 权重整合到向上扩展层中。

在 H6 基准测试中,该模型优于参数高达 300 亿的模型,甚至超越了 Mixtral 8X7B 模型。

参考

HuggingFace

Upstage AI