IBM Granite Guardian 3.0 2B 和 8B 模型旨在检测提示和/或响应中的风险。

2b 8b

1,075 8 天前

自述文件

Granite Guardian 模型

IBM Granite Guardian 3.0 **2B 和 8B 模型**旨在检测提示和/或响应中的风险。它们可以帮助检测 **IBM AI 风险图谱** 中列出的许多关键维度的风险。它们是在包含人工标注和基于内部红队攻击的合成数据的人类标注数据的独特数据上进行训练的,并且在标准基准测试中,它们优于同一领域的其他开源模型。

参数大小

该模型将生成单个输出标记,即 YesNo。默认情况下,使用通用 harm 类别,但可以通过设置系统提示来选择其他类别。

2B

ollama run granite3-guardian:2b
>>> /set system profanity

8B

ollama run granite3-guardian:8b
>>> /set system violence

支持的使用场景

  • 在提示文本或模型响应中检测风险(例如作为护栏),例如

    • 有害(harm):被认为普遍有害的内容
    • 社会偏见(social_bias):基于身份或特征的偏见
    • 越狱(jailbreak):故意操纵人工智能以生成有害、不希望或不适当的内容
    • 暴力(violence):宣扬身体、精神或性伤害的内容
    • 亵渎(profanity):使用攻击性语言或侮辱
    • 色情内容(sexual_content):具有性暗示或明显的性内容
    • 不道德行为(unethical_behavior):违反道德或法律标准的行为
  • RAG(检索增强生成)以评估

    • 上下文相关性(relevance):检索到的上下文是否与查询相关
    • 扎根性(groundedness):响应是否准确并忠实于提供的上下文
    • 答案相关性(answer_relevance):响应是否直接解决用户的查询

Granite 密集模型

Granite 密集模型提供 **2B 和 8B** 参数大小,旨在支持基于工具的使用案例以及检索增强生成 (RAG),简化代码生成、翻译和错误修复。

查看模型页面

Granite 专家混合模型

Granite MoE 模型提供 **1B 和 3B** 参数大小,旨在用于低延迟使用,并支持部署在设备上的应用或需要即时推理的情况。

查看模型页面

了解更多