IBM Granite Guardian 3.0 2B 和 8B 模型旨在检测提示或响应中的风险。
2b 8b
1,075 Pulls 更新于 8 天前
自述文件
Granite Guardian 模型
IBM Granite Guardian 3.0 **2B 和 8B 模型**旨在检测提示或响应中的风险。它们可以帮助在 IBM AI 风险地图集 中编目的许多关键维度上进行风险检测。它们是在包含人工标注和由内部红队测试告知的合成数据的独特数据上进行训练的,并且在标准基准测试中优于同类其他开源模型。
参数大小
该模型将生成单个输出标记,要么是 Yes
,要么是 No
。默认情况下,使用通用 harm
类别,但可以通过设置系统提示选择其他类别。
2B
ollama run granite3-guardian:2b
>>> /set system profanity
8B
ollama run granite3-guardian:8b
>>> /set system violence
支持的用途
检测提示文本或模型响应中的风险(例如作为护栏),例如
- 有害内容 (
harm
):被认为总体上具有危害性的内容 - 社会偏见 (
social_bias
):基于身份或特征的偏见 - 越狱 (
jailbreak
):故意操纵 AI 生成有害、不希望或不适当的内容 - 暴力 (
violence
):宣扬身体、精神或性伤害的内容 - 粗俗语言 (
profanity
):使用攻击性语言或侮辱 - 色情内容 (
sexual_content
):带有性暗示或露骨的性内容 - 不道德行为 (
unethical_behavior
):违反道德或法律标准的行为
- 有害内容 (
RAG(检索增强生成)以评估
- 上下文相关性 (
relevance
):检索到的上下文是否与查询相关 - 基础性 (
groundedness
):响应是否准确并忠实于提供的上下文 - 答案相关性 (
answer_relevance
):响应是否直接解决了用户的查询
- 上下文相关性 (
Granite 稠密模型
Granite 稠密模型提供 **2B 和 8B** 参数大小,旨在支持基于工具的用例和检索增强生成 (RAG),简化代码生成、翻译和错误修复。
Granite 专家混合模型
Granite MoE 模型提供 **1B 和 3B** 参数大小,旨在用于低延迟使用并支持在设备内应用或需要即时推理的情况下部署。
了解更多
- **开发者:**IBM 研究院
- **GitHub 代码库:** ibm-granite/granite-guardian
- **网站:** Granite Guardian 文档
- **食谱:** Granite Guardian Snack
- **发布日期:**2024 年 10 月 21 日
- **许可证:** Apache 2.0。