OLMo 2 是一个全新的 7B 和 13B 模型系列,使用高达 5T 的 tokens 进行训练。这些模型与同等大小的完全开源模型相当或更好,并且在英语学术基准测试中与 Llama 3.1 等开放权重模型竞争。

7b 13b

29K 3 周前

9 标签
4208d3b406db • 4.5GB • 3 周前
4208d3b406db • 4.5GB • 3 周前
6c279ebc980f • 8.4GB • 3 周前
c5cd17f69ca0 • 27GB • 3 周前
6c279ebc980f • 8.4GB • 3 周前
54d0ec72e884 • 15GB • 3 周前
fa483f2d5cc7 • 15GB • 3 周前
4208d3b406db • 4.5GB • 3 周前
e75d0b293717 • 7.8GB • 3 周前