Falcon3 是一系列高效的 AI 模型,参数量小于 100 亿,通过创新的训练技术,在科学、数学和编码方面表现出色。
1b 3b 7b 10b
28.4K 下载次数 更新于 6 周前
更新于 6 周前
6 周前
5449d006a9c7 · 1.8GB
模型
架构llama
·
参数1.67B
·
量化Q8_0
1.8GB
参数
{ "stop": [ "<|system|>", "<|user|>", "<|end|>", "<|assistant|>"
101B
模板
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|{{ .Role }}|> {
218B
许可
Falcon 3 TII Falcon 许可证 2024 年 12 月 FalconLLM.tii.ae 介绍性说明 本许可证是,在
13kB
自述文件
Falcon3 代表了 TII 在参数量小于 100 亿的高效语言模型方面的最新进展,专注于增强科学、数学和代码能力,同时保持训练效率。
主要特点
- 四种尺寸:1B、3B、7B、10B
- 使用深度放大技术从 7B 模型创建 10B 模型
- 针对较小模型的知识蒸馏 (1B, 3B)
性能亮点
falcon3:1b
性能优于smollm2:1.7b
,与gemma2:2b
相当falcon3:10b
在小于 13B 参数类别中达到 SOTA- 扩展上下文长度至 32K tokens(1B 模型为 8K)