Phi-3 Mini是由微软开发的3B的最新轻型开源模型。于2024年7月更新。

3B

139 Pulls 更新于7周前

自述文件

image.png

  • fp32 量化
  • 使用 i-matrix calibration_datav3.txt

Phi-3 是微软开发的开源 AI 模型系列。

参数大小

上下文窗口大小

  • 4k ollama run mannix/phi3-mini-4k

Phi-3 Mini

Phi-3 Mini 是一个拥有 3.8B 参数,轻量级,处于技术前沿的开放模型。它使用 Phi-3 数据集进行训练,该数据集包括合成数据和经过筛选的公开网站数据,侧重于高质量和推理密集型属性。

该模型经过培训后进行了后期处理,包括监督微调和直接偏好优化,以确保精确地遵守指令和采取稳健的安全措施。

与常识、语言理解、数学、代码、长上下文和逻辑推理等基准测试相比,Phi-3 Mini-4K-Instruct 在不到 13 亿参数的模型中展示了坚固且领先的技术性能。

Phi-3 中型

Phi-3 中型是一个 14B 参数的语言模型,其性能优于 Gemini 1.0 Pro。

image.png

预期用途

主要用例

该模型旨在用于英语的商业和研究。该模型适用于需要以下应用的情况:
1) 存储计算受限的环境
2) 延迟限定的场景
3) 强大的推理(尤其是数学和逻辑)
4) 长上下文

我们的模型旨在加速对语言和多模态模型的研究,作为生成人工智能功能的构建块使用。

用例考量

我们的模型不是专为所有下游目的设计和评估的。开发者应在选择用例时考虑语言模型的共同限制,并在特定下游用例中使用之前,评估和减轻准确度、安全性和公平性的问题,特别是在高风险场景下。
开发者应了解并遵守与其用案相关的适用法律或法规(包括隐私、贸易合规法规等)。
本模型卡中包含的内容不得解释为或视为限制或修改该模型发布许可的条款。

负责任的人工智能考虑因素

与其他语言模型一样,Phi 系列模型可能会以不公平、不可靠或冒犯性的方式进行行为。以下是一些要了解的限制行为:

  • 服务质量:Phi 模型主要在英语文本上进行训练。除英语之外的语言将表现出糟糕的性能。在训练数据中代表性较弱的英语变体会比标准美国英语表现更差。

  • 对危害的表示和刻板印象的延续:这些模型可能会过度或不足地代表某些群体,消除某些群体的代表性,或强化贬低性或负面刻板印象。尽管进行了培训后的安全性措施,但由于不同群体代表性级别不同,或训练数据中负面刻板印象实例的普遍性,这些限制可能仍然存在。

  • 不适当或冒犯性内容:这些模型可能会产生其他类型的不适当或冒犯性内容,可能会在没有附加特定于用例的缓解措施的情况下,使部署变得不适宜。

  • 信息可靠性:语言模型可以生成不可理喻的内容或编造看似合理但实际上不准确或过时的内容。

  • 对代码的适用范围的限制:Phi-3 训练数据的大部分基于 Python,使用了如“typing、math、random、collections、datetime、itertools”等常见包。如果模型生成使用其他包或其他语言的脚本的 Python 脚本,我们强烈建议用户手动验证所有 API 使用。

开发者应应用负责任的人工智能最佳实践,并负责确保特定用案符合相关法律和法规(例如隐私、贸易等)。重要的考虑领域包括:
+ 分配:模型可能不适合对法律地位、资源配置或生活机会(例如住房、就业、信用等)有潜在重大影响的场景,除非进行进一步评估和额外的去偏技术。

  • 高风险场景:开发者在判别用模型进行高风险操作是否合适的时,应考虑到输出可能不公平、不可靠或具有攻击性,可能导致极高的成本或损害。这包括在准确性和可靠性至关重要的敏感或特殊领域(如法律或健康建议)提供咨询。需要根据部署环境在应用层面实施额外的安全措施。

  • 虚假信息:模型可能产生不准确的信息。开发者应遵循透明度最佳实践,并告知最终用户他们正在与AI系统互动。在应用层面,开发者可以构建反馈机制和管道,使用针对特定用例的上下文信息来锚定回应,这是一种称为检索增强生成(RAG)的技术。

  • 产生有害内容:开发者应评估输出的上下文和使用用例适当的安全性分类器或定制解决方案。

  • 滥用:其他形式的滥用,如欺诈、垃圾邮件或恶意软件生成也可能发生,开发者应确保其应用不会违反适用的法律和法规。

培训

模型

  • 架构:Phi-3 Mini具有3.8B个参数,是密集型仅解码器Transformer模型。模型通过监督微调和直接偏好优化(DPO)进行微调以确保与人类偏好和安全指南的一致性。
  • 输入:文本。最适合使用聊天格式的提示。
  • 上下文长度:128K个标记
  • GPU:512 H100-80G
  • 培训时间:7天
  • 培训数据:3.3T个标记
  • 输出:对输入生成的文本
  • 日期:我们的模型于2024年2月至4月之间训练
  • 状态:这是一个在截至2023年10月的离线数据集上训练的静态模型。随着模特的改进,未来可能会发布微调模型的版本。

数据集

我们的培训数据包括广泛的来源,共涉及3.3万亿个标记,是以下内容的组合
1) 经过严格质量过滤的公开文档,选择高质量的教育数据和小程序;
2) 为教学数学、编码、常识推理、世界一般知识(科学、日常生活、心智理论等)等目的创造的新合成、“教科书式”数据;
3) 有关各种主题的高质量聊天格式监督数据,以反映人类在指示遵循、真实性、诚实和有用性等方面的偏好。

软件

许可

该模型采用MIT许可

商标

该项目可能包含属于项目、产品或服务的商标或徽标。授权使用微软的商标或徽标必须遵守并遵循微软的商标和品牌指南。不得通过修改该项目版本使用微软的商标或徽标造成混淆或暗示微软的赞助。任何对第三方商标或徽标的用途均受那些第三方政策的管理。

资源