Llama 3.2 视觉模型

2024 年 11 月 6 日

Llama 3.2 视觉模型 11B 和 90B 现已在 Ollama 上可用。

IBM Granite 3.0 模型

2024 年 10 月 21 日

Ollama 与 IBM 合作将 Granite 3.0 模型引入 Ollama。

Llama 3.2 小型化和多模态化

2024 年 9 月 25 日

Ollama 与 Meta 合作将 Llama 3.2 引入 Ollama。

使用 Bespoke-Minicheck 减少幻觉

2024 年 9 月 18 日

Bespoke-Minicheck 是由 Bespoke Labs 开发的一种新的基础事实检查模型,现在已在 Ollama 上可用。它可以检查其他模型生成的响应,以检测和减少幻觉。

工具支持

2024 年 7 月 25 日

Ollama 现在支持使用流行模型(如 Llama 3.1)进行工具调用。这使模型能够使用其所知的工具来回答给定的提示,从而使模型能够执行更复杂的任务或与外部世界交互。

Google Gemma 2

2024 年 6 月 27 日

Gemma 2 现在在 Ollama 上以 3 种尺寸提供 - 2B、9B 和 27B。

编辑器中的完全开源 AI 代码助手

2024 年 5 月 31 日

Continue 使您能够轻松地使用开源 LLM 在 Visual Studio Code 和 JetBrains 中直接创建自己的编码助手。

Google 宣布支持 Ollama 的 Firebase Genkit

2024 年 5 月 20 日

在 Google IO 2024 上,Google 宣布了 Firebase Genkit 中对 Ollama 的支持,Firebase Genkit 是一个新的开源框架,供开发人员构建、部署和监控可用于生产环境的 AI 驱动的应用程序。

Llama 3 审查不多

2024 年 4 月 19 日

与 Llama 2 相比,Llama 3 感觉审查少了很多。Meta 已大幅降低了错误拒绝率。Llama 3 拒绝的提示将不到 Llama 2 之前拒绝提示的 1/3。

Llama 3

2024 年 4 月 18 日

Llama 3 现在可以在 Ollama 上运行。该模型是 Meta 最先进的大型语言模型的下一代产品,是迄今为止最强大的公开可用 LLM。

嵌入模型

2024 年 4 月 8 日

Ollama 中提供嵌入模型,使其可以轻松地生成用于搜索和检索增强生成 (RAG) 应用程序的向量嵌入。

Ollama 现在支持 AMD 显卡

2024 年 3 月 14 日

Ollama 现在支持 AMD 显卡,在 Windows 和 Linux 上进行预览。Ollama 的所有功能现在都可以通过 Ollama for Linux 和 Windows 上的 AMD 显卡加速。

Windows 预览版

2024 年 2 月 15 日

Ollama 现在在 Windows 上以预览版提供,使得在新的原生 Windows 体验中提取、运行和创建大型语言模型成为可能。Ollama on Windows 包含内置的 GPU 加速、对完整模型库的访问,并提供 Ollama API(包括 OpenAI 兼容性)。

OpenAI 兼容性

2024 年 2 月 8 日

Ollama 现在与 OpenAI Chat Completions API 具有初始兼容性,使您可以通过 Ollama 使用为 OpenAI 构建的现有工具来使用本地模型。

视觉模型

2024 年 2 月 2 日

现在提供新的视觉模型:LLaVA 1.6,参数大小为 7B、13B 和 34B。这些模型支持更高分辨率的图像、改进的文本识别和逻辑推理。

Python 和 JavaScript 库

2024 年 1 月 23 日

Ollama Python 和 JavaScript 库的初始版本现已可用,使得在几行代码中将您的 Python 或 JavaScript 或 Typescript 应用程序与 Ollama 集成变得容易。这两个库都包含 Ollama REST API 的所有功能,在设计上都很熟悉,并且与新旧版本的 Ollama 兼容。

使用客户端技术构建 LLM 驱动的 Web 应用程序

2023 年 10 月 13 日

使用开源、本地运行的软件重新创建最流行的 LangChain 用例之一 - 一个执行检索增强生成(简称 RAG)的链,并允许您“与您的文档聊天”。

Ollama 现在可作为官方 Docker 镜像使用

2023 年 10 月 5 日

Ollama 现在可以在 Mac 上使用 Docker Desktop 运行,并且可以在 Linux 上使用 GPU 加速在 Docker 容器内运行。

在您的 Obsidian 笔记中利用 LLM

2023 年 9 月 21 日

这篇文章将介绍如何在 Obsidian(或任何笔记工具)中结合使用 Ollama 中的本地 LLM。

如何提示 Code Llama

2023 年 9 月 9 日

本指南介绍了构建 Code Llama 及其不同变体和功能(包括说明、代码完成和中间填充 (FIM))的提示的不同方法。

在本地运行 Code Llama

2023 年 8 月 24 日

Meta 的 Code Llama 现在可以在 Ollama 上试用。

在本地运行未经审查的 Llama 2

2023 年 8 月 1 日

这篇文章将给出一些示例比较,运行未经审查的 Llama 2 模型与经过审查的模型。