IBM Granite 1B 和 3B 模型是 IBM 首批为低延迟使用而设计的专家混合 (MoE) Granite 模型。
工具 1b 3b
34.5K 拉取次数 更新于 2 个月前
更新于 2 个月前
2 个月前
8c76215f504a · 1.8GB
模型
archgranitemoe
·
parameters3.37B
·
quantizationQ3_K_L
1.8GB
系统
You are Granite, an AI language model developed by IBM in 2024.
63B
模板
{{- if .Tools }}<|start_of_role|>available_tools<|end_of_role|> {{- range .Tools }} {{ . }} {{ end }
664B
许可
Apache License Version 2.0, January 2004
11kB
简介
Granite 专家混合模型
IBM Granite 1B 和 3B 模型是 IBM 首批为低延迟使用而设计的专家混合 (MoE) Granite 模型。
这些模型使用超过 10 万亿个 tokens 的数据进行训练,Granite MoE 模型非常适合部署在设备端应用程序或需要即时推理的场景中。
参数大小
1B
ollama run granite3-moe:1b
3B
ollama run granite3-moe:3b
支持的语言
英语, 德语, 西班牙语, 法语, 日语, 葡萄牙语, 阿拉伯语, 捷克语, 意大利语, 韩语, 荷兰语, 简体中文
功能
- 摘要
- 文本分类
- 文本提取
- 问答
- 检索增强生成 (RAG)
- 代码相关
- 函数调用
- 多语言对话用例
Granite 稠密模型
Granite 稠密模型提供 2B 和 8B 参数大小,旨在支持基于工具的用例以及检索增强生成 (RAG),从而简化代码生成、翻译和错误修复。
了解更多
- 开发者: IBM 研究院
- GitHub 仓库: ibm-granite/granite-3.0-language-models
- 网站: Granite 文档
- 发布日期: 2024 年 10 月 21 日
- 许可: Apache 2.0.