更新于 2 天前
2 天前
7b8c8f58ae99 · 1.1GB
model
架构qwen2
·
参数988M
·
量化Q8_0
1.1GB
params
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
template
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
255B
system
你是由 Sea AI Lab 创建的名为 Sailor2 的 AI 助手。作为 AI 助手,你可以回答问题
364B
自述文件
Sailor2 是一项社区驱动的计划,旨在为东南亚 (SEA) 地区带来最先进的多语言模型。我们的研究强调了对生产使用的 8B 和 20B 参数范围模型以及用于特定应用(如推测解码和研究目的)的 1B 模型的强烈需求。这些模型以 Apache 2.0 许可证发布,为该地区提供了更广泛地访问先进语言技术的途径。
Sailor2 建立在优秀的多语言模型 Qwen 2.5 的基础上,并在 500B 标记上持续进行预训练,以更好地支持 15 种语言的统一模型。这些语言包括英语、中文、缅甸语、宿务语、伊洛卡诺语、印度尼西亚语、爪哇语、高棉语、老挝语、马来语、巽他语、他加禄语、泰语、越南语和瓦瑞语。通过解决对多样化、强大且可访问的语言模型日益增长的需求,Sailor2 寻求通过开放、包容和可访问的多语言 LLM 为东南亚地区服务不足的地区提供服务。Sailor2 模型有三种大小,分别为 1B、8B 和 20B,它们分别从 Qwen2.5 的 0.5B、7B 和 14B 基础模型扩展而来。