Phi-3 Mini 是微软推出的一个轻量级的 3B 状态的开放模型。2024 年 7 月更新。

3B

139 拉取 7 周前更新

7 周前

afdd78efb8c1 · 2.1GB

README

image.png

  • fp32 进行量化
  • 使用 i-matrix 校准数据 calibration_datav3.txt

Phi-3 是微软开发的一系列开放人工智能模型。

参数大小

上下文窗口大小

  • 4k ollama run mannix/phi3-mini-4k

Phi-3 Mini

Phi-3 Mini 是一个 3.8B 参数,轻量级,最先进的开放模型,使用 Phi-3 数据集训练,该数据集包含合成数据和过滤后的公开可用网站数据,重点关注高质量和推理密集型属性。

该模型经过了训练后处理,结合了监督微调和直接偏好优化,以确保精确遵守指令和强大到位的安全措施。

对比常见理性、语言理解、数学、代码、长上下文和逻辑推理的基准测试,Phi-3 Mini-4K-Instruct在参数低于130亿个的模型中展示了强大且处于业界领先水平的性能。

Phi-3 Medium

Phi-3 Medium是一个拥有140亿个参数的语言模型,其性能优于Gemini 1.0 Pro。

image.png

目的用途

主要使用场景

该模型旨在用于英语商业和研究领域。该模型可以为需要应用的提供用途,包括
1) 内存/计算受限的环境
2) 延迟敏感的场景
3) 强大的推理能力(尤其是数学和逻辑)
4) 长上下文

我们的模型旨在加速语言和多元建模的研究,用作生成人工智能特征的基础模块。

使用场景考虑

我们的模型并未针对所有下游用途进行专门的开发和评估。开发者应在选择使用场景时考虑语言模型的共有局限性,并在特定下游用途中使用前,特别是在高风险场景中,评估和减轻准确性、安全性和公平性问题。
开发者应了解并遵守与其使用案例相关的适用法律或法规(包括隐私、贸易合规法规等)。
本模型卡片中包含的内容不应被视为或被认为是限制或修改模型发布所依据许可证的条款。

负责任人工智能考虑

与其他语言模型一样,Phi系列模型可能表现出不公平、不可靠或冒犯性的行为。以下是一些需要关注的限制行为:

  • 服务质量:Phi模型主要在英语文本上训练。非英语语言可能会表现出较差的性能。在训练数据中代表性较低的英语变体会比标准美式英语表现出更差的成绩。

  • 伤害表现的代表性与刻板印象的持续:这些模型可能会过分或不足地代表某些群体,消除某些群体的代表性,或者强化贬低性或负面刻板印象。尽管进行过安全后训练,但不同群体或负面的训练数据例子(反映现实世界模式和社会偏见)的代表水平不同,这些局限性可能仍然存在。

  • 不适当或冒犯性内容:这些模型可能产生其他类型的不适当或冒犯性内容,在敏感情境中部署时可能需要额外的具体于使用场景的缓解措施。

  • 信息可靠性:语言模型可能会生成不合逻辑的内容或虚构听起来合理但实际上不准确或过时的内容。

  • 代码范围的局限性:Phi-3的训练数据主要基于Python,并使用常见的包如“typing、math、random、collections、datetime、itertools”。如果模型生成使用其他包或其他语言的脚本,我们强烈建议用户手动验证所有API应用。

开发者应应用负责任人工智能的最佳实践,并负责确保特定使用案例符合相关的法律和法规(例如隐私、贸易等)。重要的考虑领域包括
+ 分配:在没有进一步评估和附加去偏技术的情况下,模型可能不适合可能对法律地位、资源分配或生活机会产生重大影响的情景(例如住房、就业、信贷等)。

  • 高风险场景:开发者应评估在可能产生不公平、不可靠或冒犯性输出的高风险场景中使用模型的适用性。这包括在需要准确性和可靠性的敏感或专业领域提供咨询(例如法律或健康建议)。应根据部署环境在应用级别实施额外的安全措施。

  • 错误信息:模型可能会产生不准确的信息。开发者应遵循透明度最佳实践,并告知最终用户他们正在与人工智能系统交互。在应用级别,开发者可以构建反馈机制和管道,将响应基于特定用例的上下文信息,这种技术被称为检索增强生成(RAG)。

  • 有害内容的生成:开发者应评估输出的上下文和使用可用安全性分类器或适合其用例的自定义解决方案。

  • 滥用:其他形式的滥用,如欺诈、垃圾邮件或恶意软件生产也是可能的,开发者应确保其应用程序不违反适用的法律和法规。

培训

模型

  • 架构:Phi-3 Mini拥有38亿个参数,是一个密集型仅解码Transformer模型。该模型通过监督微调(SFT)直接偏好优化(DPO)进行了微调,以确保与人类偏好和安全指南保持一致。
  • 输入:文本。它最适合以聊天格式进行的提示。
  • 上下文长度:128K个标记
  • GPU:512 H100-80G
  • 培训时间:7天
  • 培训数据:3.3T个标记
  • 输出:对输入生成的响应文本
  • 日期:我们的模型在2024年2月至4月之间进行了训练
  • 状态:这是一个基于2023年10月截止日期的离线数据集的静态模型。随着我们对模型进行改进,可能还会发布调优模型的未来版本。

数据集

我们的培训数据包括广泛的各种来源,总共有3.3万亿个标记,是一个结合
1)经过严格质量筛选的公开可用的文档,选拔高质量教育数据和代码;
2)为教学数学、编码、常识推理、世界一般知识(科学、日常生活、心智理论等)目的而创建的新型合成、“教科书式”数据;
3)高质量聊天格式监督数据,涵盖各种主题,以反映人类对不同方面(如指令遵循、真实性、诚实和有用性)的偏好。

软件

许可证

该模型根据MIT许可证发行。

商标

本项目可能包含项目、产品或服务的商标或徽标。Microsoft商标或徽标的授权使用受Microsoft商标和品牌指南的约束,并必须遵循。在此项目的修改版本中使用Microsoft的商标或徽标不得造成混淆或暗示Microsoft的资金支持。任何第三方商标或徽标的用途均受那些第三方政策的约束。

资源