结构化输出
December 6, 2024
Ollama 现在支持结构化输出,从而可以将模型的输出约束为 JSON 模式定义的特定格式。Ollama Python 和 JavaScript 库已更新以支持结构化输出。
Ollama Python 库 0.4 版本,函数调用功能得到改进
November 25, 2024
在 Ollama Python 库 0.4 版本中,函数现在可以作为工具提供。该库现在还具有完整的类型支持,并添加了新的示例。
Llama 3.2 Vision
November 6, 2024
Llama 3.2 Vision 11B 和 90B 模型现已在 Ollama 中可用。
IBM Granite 3.0 模型
October 21, 2024
Ollama 与 IBM 合作,将 Granite 3.0 模型引入 Ollama。
Llama 3.2 变得更小巧且支持多模态
September 25, 2024
Ollama 与 Meta 合作,将 Llama 3.2 引入 Ollama。
使用 Bespoke-Minicheck 减少幻觉
September 18, 2024
Bespoke-Minicheck 是 Bespoke Labs 开发的一种新的基于事实的真实性检查模型,现已在 Ollama 中可用。它可以对其他模型生成的响应进行事实检查,以检测和减少幻觉。
工具支持
July 25, 2024
Ollama 现在支持使用流行模型(如 Llama 3.1)进行工具调用。这使模型能够使用其已知的工具来回答给定的提示,从而使模型能够执行更复杂的任务或与外部世界互动。
Google Gemma 2
June 27, 2024
Gemma 2 现在已在 Ollama 上提供,有 3 种尺寸 - 2B、9B 和 27B。
编辑器内完全开源的 AI 代码助手
May 31, 2024
Continue 使您能够使用开源 LLM 在 Visual Studio Code 和 JetBrains 中轻松创建自己的代码助手。
Google 宣布 Firebase Genkit 支持 Ollama
May 20, 2024
在 Google IO 2024 大会上,Google 宣布 Firebase Genkit 支持 Ollama。Firebase Genkit 是一个新的开源框架,供开发人员构建、部署和监控生产就绪的 AI 驱动的应用程序。
Llama 3 没有太多审查
April 19, 2024
与 Llama 2 相比,Llama 3 的审查感要少得多。Meta 大幅降低了错误拒绝率。Llama 3 拒绝的提示将不到 Llama 2 之前拒绝的提示的三分之一。
Llama 3
April 18, 2024
Llama 3 现在可以在 Ollama 上运行。该模型是 Meta 最先进的大型语言模型的下一代,也是迄今为止功能最强大的公开可用 LLM。
嵌入模型
April 8, 2024
嵌入模型在 Ollama 中可用,可以轻松生成向量嵌入,用于搜索和检索增强生成 (RAG) 应用程序。
Ollama 现在支持 AMD 显卡
March 14, 2024
Ollama 现在在 Windows 和 Linux 上预览版中支持 AMD 显卡。Ollama 的所有功能现在都可以通过 Linux 和 Windows 版 Ollama 上的 AMD 显卡加速。
Windows 预览版
February 15, 2024
Ollama 现在在 Windows 上提供预览版,从而可以在新的原生 Windows 体验中拉取、运行和创建大型语言模型。Windows 版 Ollama 包括内置 GPU 加速、访问完整的模型库,并提供包括 OpenAI 兼容性在内的 Ollama API。
OpenAI 兼容性
February 8, 2024
Ollama 现在初步兼容 OpenAI Chat Completions API,从而可以使用为 OpenAI 构建的现有工具,通过 Ollama 使用本地模型。
视觉模型
February 2, 2024
新的视觉模型现已推出:LLaVA 1.6,有 7B、13B 和 34B 参数尺寸。这些模型支持更高分辨率的图像、改进的文本识别和逻辑推理。
Python 和 JavaScript 库
January 23, 2024
Ollama Python 和 JavaScript 库的初始版本现已推出,可以轻松地将您的 Python 或 JavaScript 或 Typescript 应用程序与 Ollama 集成,只需几行代码即可。这两个库都包含 Ollama REST API 的所有功能,设计风格熟悉,并且与新旧版本的 Ollama 兼容。
使用客户端技术构建 LLM 驱动的 Web 应用程序
October 13, 2023
使用开源、本地运行的软件重现 LangChain 最流行的用例之一 - 一个执行检索增强生成(简称 RAG)的链,让您可以“与您的文档聊天”
Ollama 现在作为官方 Docker 镜像提供
October 5, 2023
Ollama 现在可以在 Mac 上与 Docker Desktop 一起运行,并且可以在 Linux 上通过 GPU 加速在 Docker 容器内运行。
在您的 Obsidian 笔记中利用 LLM
September 21, 2023
这篇文章介绍了如何在 Obsidian 或任何笔记工具中使用 Ollama 集成本地 LLM。
如何提示 Code Llama
September 9, 2023
本指南介绍了为 Code Llama 构建提示的不同方法,及其不同的变体和功能,包括指令、代码完成和中间填充 (FIM)。
在本地运行 Code Llama
August 24, 2023
Meta 的 Code Llama 现在可在 Ollama 上试用。
在本地运行未审查的 Llama 2
August 1, 2023
这篇文章将提供一些运行未审查的 Llama 2 模型与其审查模型的示例比较。