更新于 2 天前
2 天前
f08f378f040a · 5.2GB
model
架构qwen2
·
参数8.55B
·
量化Q4_K_M
5.2GB
params
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
template
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
255B
system
你是由 Sea AI Lab 创建的名为 Sailor2 的 AI 助手。作为一名 AI 助手,你可以回答问题
364B
自述文件
Sailor2 是一项社区驱动的倡议,旨在将尖端的多语言模型引入东南亚(SEA)。我们的研究强调了对生产使用的 **8B 和 20B** 参数范围模型以及用于专门应用(如推测解码和研究目的)的 **1B 模型** 的强烈需求。这些模型以 **Apache 2.0 许可**发布,提高了该地区对先进语言技术的访问性。
Sailor2 基于优秀的多语言模型 Qwen 2.5 构建,并在 500B 标记上持续预训练,以更好地支持 15 种语言的统一模型。这些语言包括英语、中文、缅甸语、宿务语、伊洛卡诺语、印度尼西亚语、爪哇语、高棉语、老挝语、马来语、巽他语、他加禄语、泰语、越南语和瓦瑞语。通过解决对多样化、强大和可访问语言模型日益增长的需求,Sailor2 寻求通过开放、包容和可访问的多语言 LLM 为东南亚地区服务不足的人群提供服务。Sailor2 模型有三种规模,分别为 1B、8B 和 20B,它们分别从 Qwen2.5 的 0.5B、7B 和 14B 基础模型扩展而来。