Falcon3 是一个高效的 AI 模型系列,参数量少于 100 亿,通过创新的训练技术,在科学、数学和编码方面表现出色。

1b 3b 7b 10b

2.84万 6 周前

自述文件

Falcon3 代表了 TII 在 100 亿参数以下的高效语言模型方面的最新进展,专注于增强科学、数学和代码能力,同时保持训练效率。

主要特点

  • 四种尺寸:1B、3B、7B、10B
  • 使用深度放大技术从 7B 模型创建 10B 模型
  • 针对较小模型的知识蒸馏(1B、3B)

性能亮点

  • falcon3:1b 性能优于 smollm2:1.7b,与 gemma2:2b 相媲美
  • falcon3:10b 在 130 亿参数以下类别中达到 SOTA
  • 扩展上下文长度最多 32K tokens(1B 模型为 8K)

参考

Hugging Face