自述文件
Granite guardian 模型
IBM Granite Guardian 3.0 **2B 和 8B 模型**旨在检测提示和/或响应中的风险。它们可以帮助在IBM AI 风险图谱中编录的许多关键维度上进行风险检测。它们是在包含人工注释和内部红队信息提供的合成数据的独特数据上进行训练的,在标准基准上,它们在相同领域内优于其他开源模型。
参数大小
模型将生成单个输出标记,即 Yes
或 No
。默认情况下,将使用通用的 harm
类别,但可以通过设置系统提示来选择其他类别。
2B
ollama run granite3-guardian:2b
>>> /set system profanity
8B
ollama run granite3-guardian:8b
>>> /set system violence
支持的用途
检测提示文本或模型响应(即作为护栏)中的风险,例如
- 危害 (
harm
):通常被认为有害的内容 - 社会偏见 (
social_bias
):基于身份或特征的偏见 - 越狱 (
jailbreak
):故意操纵 AI 以生成有害、不希望或不适当内容的情况 - 暴力 (
violence
):宣扬身体、精神或性伤害的内容 - 粗俗 (
profanity
):使用攻击性语言或侮辱 - 色情内容 (
sexual_content
):具有性暗示或露骨的性内容 - 不道德行为 (
unethical_behavior
):违反道德或法律标准的行为
- 危害 (
RAG(检索增强生成)以评估
- 上下文相关性 (
relevance
):检索到的上下文是否与查询相关 - 可靠性 (
groundedness
):响应是否准确并忠实于提供的上下文 - 答案相关性 (
answer_relevance
):响应是否直接解决了用户的查询
- 上下文相关性 (
Granite 稠密模型
Granite 稠密模型以 **2B 和 8B** 参数大小提供,旨在支持基于工具的用例,并用于检索增强生成 (RAG),从而简化代码生成、翻译和错误修复。
Granite 专家混合模型
Granite MoE 模型以 **1B 和 3B** 参数大小提供,旨在用于低延迟使用,并支持部署在设备应用中或需要即时推理的情况下。
了解更多
- **开发者:** IBM 研究院
- **GitHub 代码库:** ibm-granite/granite-guardian
- **网站**: Granite Guardian 文档
- **食谱**: Granite Guardian 小吃
- **发布日期**:2024 年 10 月 21 日
- **许可证:** Apache 2.0。