TinyLlama 项目是一个开放的尝试,旨在用 3 万亿 tokens 训练一个紧凑的 1.1B Llama 模型。

1.1b

1.3M 13 个月前

说明

TinyLlama 是一个紧凑型模型,仅有 11 亿参数。这种紧凑性使其能够满足需要受限计算和内存 footprint 的多种应用。

参考

Hugging Face

GitHub