OLMo 2 是一个全新的 7B 和 13B 模型系列,使用高达 5T 的 tokens 训练。这些模型与同等大小的完全开放模型相当或更好,并且在英语学术基准测试中与 Llama 3.1 等开放权重模型相比具有竞争力。
7b 13b
29K 下载量 更新于 3 周前
更新于 3 周前
3 周前
e75d0b293717 · 7.8GB
模型
archolmo2
·
parameters7.3B
·
quantizationQ8_0
7.8GB
系统
You are OLMo 2, a helpful and harmless AI Assistant built by the Allen Institute for AI.
88B
模板
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|{{ .Role }}|> {
218B
许可证
Apache License Version 2.0, January 2004
11kB
自述文件
注意:此模型需要 Ollama 0.5.5
OLMo 2 是一个全新的 7B 和 13B 模型系列,使用高达 5T 的 tokens 训练。这些模型与同等大小的完全开放模型相当或更好,并且在英语学术基准测试中与 Llama 3.1 等开放权重模型相比具有竞争力。