更新于 4 天前
4 天前
6134e1a7e2c8 · 47GB
模型
archllama
·
parameters23.6B
·
quantizationF16
47GB
参数
{ "temperature": 0.15 }
21B
系统
You are Mistral Small 3, a Large Language Model (LLM) created by Mistral AI, a French startup headqu
644B
模板
{{- range $index, $_ := .Messages }} {{- if eq .Role "system" }}[SYSTEM_PROMPT]{{ .Content }}[/SYSTE
695B
许可证
Apache License Version 2.0, January 2004
11kB
说明
Mistral Small 3 在 70B 以下的“小型”大型语言模型类别中树立了新的基准,拥有 240 亿参数,并实现了与更大型号相媲美的最先进功能。
Mistral Small 可以本地部署,并且具有出色的“知识密集度”,量化后可在一张 RTX 4090 或 32GB 内存的 MacBook 中运行。非常适合用于:
- 快速响应对话式代理。
- 低延迟函数调用。
- 通过微调成为主题专家。
- 供业余爱好者和处理敏感数据的组织进行本地推理。
主要特点
- 多语言: 支持数十种语言,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、葡萄牙语、荷兰语和波兰语。
- 以代理为中心: 提供一流的代理功能,具有原生函数调用和 JSON 输出。
- 高级推理: 最先进的对话和推理能力。
- Apache 2.0 许可证: 开放许可证,允许商业和非商业目的的使用和修改。
- 上下文窗口: 32k 上下文窗口。
- 系统提示: 保持对系统提示的强大遵守和支持。
- 分词器: 使用 Tekken 分词器,词汇量为 131k。
人工评估
我们与外部第三方供应商,针对超过 1000 个专有的编码和通用提示集进行了并排评估。评估人员的任务是从 Mistral Small 3 与另一个模型生成的匿名结果中选择他们偏好的模型响应。我们意识到,在某些情况下,人工判断的基准与公开可用的基准差异很大,但我们已格外谨慎地验证了评估的公正性。我们确信以上基准是有效的。
指令性能
我们的指令调优模型在代码、数学、通用知识和指令跟随基准测试中,其性能与是其三倍大小的开源模型以及专有的 GPT4o-mini 模型相比具有竞争力。
所有基准测试的性能准确率均通过相同的内部评估流程获得 - 因此,数字可能与先前报告的性能(Qwen2.5-32B-Instruct、Llama-3.3-70B-Instruct、Gemma-2-27B-IT)略有不同。基于判断的评估,如 Wildbench、Arena hard 和 MTBench,均基于 gpt-4o-2024-05-13。
客户正在多个行业评估 Mistral Small 3,包括:
- 金融服务客户用于欺诈检测
- 医疗保健提供商用于客户分诊
- 机器人、汽车和制造公司用于设备端命令和控制
- 跨客户的横向用例包括虚拟客户服务以及情感和反馈分析。