TinyLlama 项目是一项开放的努力,旨在用 3 万亿个 token 训练一个紧凑的 11 亿参数 Llama 模型。

11亿

52.56万 11个月前

自述文件

TinyLlama是一个紧凑型模型,只有11亿个参数。这种紧凑性使其能够满足许多需要限制计算和内存占用量的应用程序。

参考资料

Hugging Face

GitHub