结构化输出

2024年12月6日

Ollama 现在支持结构化输出,使得可以将模型的输出约束为由 JSON 模式定义的特定格式。Ollama 的 Python 和 JavaScript 库已更新以支持结构化输出。

Ollama Python 库 0.4 版本,改进了函数调用

2024年11月25日

在 Ollama Python 库 0.4 版本中,函数现在可以作为工具提供。该库现在还具有完整的类型支持,并添加了新的示例。

Llama 3.2 Vision

2024年11月6日

Llama 3.2 Vision 11B 和 90B 模型现已在 Ollama 中可用。

IBM Granite 3.0 模型

2024年10月21日

Ollama 与 IBM 合作,将 Granite 3.0 模型引入 Ollama。

Llama 3.2 更小且多模态

2024年9月25日

Ollama 与 Meta 合作,将 Llama 3.2 引入 Ollama。

使用 Bespoke-Minicheck 减少幻觉

2024年9月18日

Bespoke-Minicheck 是由 Bespoke Labs 开发的一种新的基于事实的事实验证模型,现已在 Ollama 中可用。它可以对其他模型生成的响应进行事实核查,以检测和减少幻觉。

工具支持

2024年7月25日

Ollama 现在支持使用 Llama 3.1 等流行模型进行工具调用。这使得模型可以使用其已知的工具来回答给定的提示,从而使模型能够执行更复杂的任务或与外部世界交互。

Google Gemma 2

2024年6月27日

Gemma 2 现已在 Ollama 上提供,有 3 种大小 - 2B、9B 和 27B。

编辑器中完全开源的 AI 代码助手

2024年5月31日

Continue 使您能够使用开源 LLM 直接在 Visual Studio Code 和 JetBrains 中轻松创建自己的编码助手。

谷歌宣布支持 Ollama 的 Firebase Genkit

2024年5月20日

在 Google IO 2024 上,谷歌宣布在 Firebase Genkit 中支持 Ollama,Firebase Genkit 是一个用于开发人员构建、部署和监控生产就绪的 AI 驱动应用程序的新开源框架。

Llama 3 的审查不严

2024年4月19日

与 Llama 2 相比,Llama 3 的审查要少得多。Meta 大幅降低了错误拒绝率。Llama 3 拒绝的提示少于 Llama 2 之前拒绝的提示的 1/3。

Llama 3

2024年4月18日

Llama 3 现已可在 Ollama 上运行。该模型是 Meta 最先进的大型语言模型的下一代,并且是迄今为止最强大的公开可用 LLM。

嵌入模型

2024年4月8日

Ollama 中提供了嵌入模型,可以轻松生成用于搜索和检索增强生成 (RAG) 应用程序的向量嵌入。

Ollama 现在支持 AMD 显卡

2024年3月14日

Ollama 现在在 Windows 和 Linux 上支持 AMD 显卡的预览版。Ollama 的所有功能现在都可以在适用于 Linux 和 Windows 的 Ollama 上通过 AMD 显卡加速。

Windows 预览版

2024年2月15日

Ollama 现在在 Windows 上提供预览版,可以在新的本机 Windows 体验中提取、运行和创建大型语言模型。Windows 上的 Ollama 包括内置 GPU 加速、访问完整模型库,并提供 Ollama API,包括 OpenAI 兼容性。

OpenAI 兼容性

2024年2月8日

Ollama 现在与 OpenAI Chat Completions API 具有初步兼容性,使得可以通过 Ollama 使用为 OpenAI 构建的现有工具和本地模型。

视觉模型

2024年2月2日

现在提供新的视觉模型:LLaVA 1.6,具有 7B、13B 和 34B 参数大小。这些模型支持更高分辨率的图像、改进的文本识别和逻辑推理。

Python 和 JavaScript 库

2024年1月23日

Ollama Python 和 JavaScript 库的初始版本现已可用,只需几行代码即可轻松将您的 Python 或 JavaScript 或 Typescript 应用程序与 Ollama 集成。这两个库都包含 Ollama REST API 的所有功能,设计熟悉,并且与 Ollama 的新版本和以前版本兼容。

使用客户端技术构建 LLM 驱动的 Web 应用程序

2023年10月13日

使用开源、本地运行的软件重新创建最流行的 LangChain 用例之一 - 执行检索增强生成(简称 RAG)并允许您“与文档聊天”的链

Ollama 现在作为官方 Docker 镜像提供

2023年10月5日

Ollama 现在可以在 Mac 上的 Docker Desktop 中运行,并且可以在 Linux 上具有 GPU 加速的 Docker 容器内运行。

在 Obsidian 笔记中利用 LLM

2023年9月21日

这篇文章介绍了如何在 Obsidian 或任何笔记工具中使用 Ollama 合并本地 LLM。

如何提示 Code Llama

2023年9月9日

本指南介绍了构建 Code Llama 及其不同变体和功能的提示的不同方法,包括指令、代码完成和中间填充 (FIM)。

在本地运行 Code Llama

2023年8月24日

Meta 的 Code Llama 现在可以在 Ollama 上试用。

在本地运行未经审查的 Llama 2

2023年8月1日

这篇文章将给出一些运行未经审查的 Llama 2 模型与其审查模型的示例比较。