更新于 7 周前
7 周前
9a8c71c441ca · 13GB
模型
架构solar
·
参数22.1B
·
量化Q4_K_M
13GB
参数
{"stop":["\u003c|im_start|\u003e","\u003c|im_end|\u003e"]}
59B
模板
{{- range $index, $_ := .Messages }}<|im_start|>{{ .Role }} {{ .Content }} {{- if eq (len (slice $.M
232B
许可证
MIT 许可证 版权所有 (c) Upstage Corporation. 特此免费授予任何人获取本软件副本以及相关文档文件(以下简称“软件”)的许可,不受限制地处理本软件,包括但不限于使用、复制、修改、合并、发布、分发、再许可和/或销售软件副本,以及允许拥有软件的人员这样做,但需遵守以下条件: 以上版权声明和本许可声明应包含在本软件的所有副本或主要部分中。 本软件按“原样”提供,不附带任何形式的明示或暗示保证,包括但不限于适销性、特定目的适用性和非侵权保证。 在任何情况下,作者或版权持有人均不对因本软件引起的或与本软件相关的任何索赔、损害或其他责任(无论是在合同法、侵权法或其他法律或侵权行为下)承担责任,包括但不限于因使用、数据或利润损失而造成的损失,即使已告知其发生此类损害的可能性。
1.1kB
自述文件
Solar Pro 预览是一款先进的大型语言模型 (LLM),拥有 220 亿个参数,经过优化可在单个 GPU 上运行。与参数少于 300 亿的 LLM 相比,它展现出更优越的性能,并提供与更大模型(如拥有 700 亿个参数的 Llama 3.1)相当的结果。
Solar Pro 预览采用增强版深度上采样方法开发,将拥有 140 亿个参数的 Phi-3-medium 模型扩展至 220 亿个参数,旨在运行在具有 80GB VRAM 的 GPU 上。培训策略和数据集经过精心策划,导致与 Phi-3-medium 相比性能显著提升,特别是在评估模型知识和指令遵循能力的基准测试(如 MMLU-Pro 和 IFEval)上。
作为正式版 Solar Pro 的预发布版本,Solar Pro 预览在语言覆盖范围和最大上下文长度 (4K) 上存在限制。尽管存在这些限制,该模型凭借其效率和能力脱颖而出,在未来有可能扩展以支持更多语言和功能。
正式版 Solar Pro 计划于 2024 年 11 月发布,将包括扩展的语言支持和更长的上下文窗口。