IBM Granite Guardian 3.0 2B 和 8B 模型旨在检测提示和/或回复中的风险。
2b 8b
2,414 次拉取 更新于 2 周前
自述文件
Granite Guardian 模型
IBM Granite Guardian 3.0 **2B 和 8B 模型**旨在检测提示和/或回复中的风险。它们可以帮助在《IBM AI 风险图谱》中编目的许多关键维度上进行风险检测。它们是在由人工标注和内部红队测试提供的合成数据组成的独特数据上进行训练的,在标准基准测试中,它们的性能优于同类其他开源模型。
参数大小
模型将生成单个输出标记,即 `Yes` 或 `No`。默认情况下,使用通用 `harm` 类别,但可以通过设置系统提示来选择其他类别。
2B
ollama run granite3-guardian:2b
>>> /set system profanity
8B
ollama run granite3-guardian:8b
>>> /set system violence
支持的用途
检测提示文本或模型响应中的风险(即作为护栏),例如
- 有害内容 (
harm
):通常被认为有害的内容 - 社会偏见 (
social_bias
):基于身份或特征的偏见 - 越狱 (
jailbreak
):故意操纵 AI 以生成有害、不希望的或不当内容的实例 - 暴力 (
violence
):宣扬身体、精神或性伤害的内容 - 亵渎 (
profanity
):使用冒犯性语言或侮辱 - 色情内容 (
sexual_content
):具有性暗示或露骨的性内容 - 不道德行为 (
unethical_behavior
):违反道德或法律标准的行为
- 有害内容 (
用于评估检索增强生成 (RAG) 的
- 上下文相关性 (
relevance
):检索到的上下文是否与查询相关 - 基础性 (
groundedness
):响应是否准确并忠实于提供的上下文 - 答案相关性 (
answer_relevance
):响应是否直接解决了用户的查询
- 上下文相关性 (
Granite 稠密模型
Granite 稠密模型提供 **2B 和 8B** 参数大小,旨在支持基于工具的用例和检索增强生成 (RAG),简化代码生成、翻译和错误修复。
Granite 专家混合模型
Granite MoE 模型提供 **1B 和 3B** 参数大小,旨在用于低延迟使用,并支持在设备上应用程序或需要即时推理的情况下的部署。
了解更多
- **开发者:**IBM 研究院
- **GitHub 代码库:**ibm-granite/granite-guardian
- **网站:**Granite Guardian 文档
- **食谱:**Granite Guardian 食谱
- **发布日期:**2024 年 10 月 21 日
- **许可证:**Apache 2.0。