IBM Granite Guardian 3.0 的 2B 和 8B 模型旨在检测提示和/或响应中的风险。

2b 8b

16.6K 3 个月前

自述文件

Granite guardian 模型

IBM Granite Guardian 3.0 的 **2B 和 8B 模型**旨在检测提示和/或响应中的风险。 它们可以帮助检测 IBM AI 风险图谱 中编目的许多关键维度上的风险。 它们在独特的数据上进行训练,这些数据包括人工注释和由内部红队提供的合成数据,并且在标准基准测试中,它们优于同一领域的其他开源模型。

参数大小

该模型将生成单个输出令牌,即 `Yes` 或 `No`。 默认情况下,使用通用 `harm` 类别,但可以通过设置系统提示来选择其他类别。

2B

ollama run granite3-guardian:2b
>>> /set system profanity

8B

ollama run granite3-guardian:8b
>>> /set system violence

支持的用途

  • 提示文本或模型响应中的风险检测(即,作为护栏),例如

    • 危害 (harm):被认为通常有害的内容
    • 社会偏见 (social_bias):基于身份或特征的偏见
    • 越狱 (jailbreak):故意操纵 AI 以生成有害、不希望的或不适当的内容的实例
    • 暴力 (violence):宣传身体、精神或性伤害的内容
    • 亵渎 (profanity):使用攻击性语言或侮辱
    • 色情内容 (sexual_content):具有色情性质的明确或暗示性材料
    • 不道德行为 (unethical_behavior):违反道德或法律标准的行为
  • RAG(检索增强生成)评估

    • 上下文相关性 (relevance):检索到的上下文是否与查询相关
    • 基础性 (groundedness):响应是否准确且忠实于提供的上下文
    • 答案相关性 (answer_relevance):响应是否直接回答用户的问题

Granite 稠密模型

Granite 稠密模型提供 **2B 和 8B** 参数大小,旨在支持基于工具的用例和检索增强生成 (RAG),从而简化代码生成、翻译和错误修复。

查看模型页面

Granite 混合专家模型

Granite MoE 模型提供 **1B 和 3B** 参数大小,专为低延迟使用而设计,并支持在设备上应用程序或需要即时推理的情况下进行部署。

查看模型页面

了解更多