Minions:本地和云端 LLM 的交汇之处
2025年2月25日
来自 Christopher Ré 的斯坦福 Hazy Research 实验室的 Avanika Narayan、Dan Biderman 和 Sabri Eyuboglu,以及 Avner May、Scott Linderman、James Zou,开发了一种方法,通过让小型设备端模型(例如使用 Ollama 的 Llama 3.2)与云端中的大型模型(例如 GPT-4o)协作,将 LLM 工作负载的很大一部分转移到消费设备上。
结构化输出
2024年12月6日
Ollama 现在支持结构化输出,使得可以将模型的输出限制为 JSON 模式定义的特定格式。 Ollama Python 和 JavaScript 库已更新以支持结构化输出。
Ollama Python 库 0.4,具有函数调用改进
2024年11月25日
使用 Ollama Python 库 0.4 版本,现在可以将函数作为工具提供。 该库现在还具有完整的类型支持,并添加了新的示例。
Llama 3.2 Vision
2024年11月6日
Llama 3.2 Vision 11B 和 90B 模型现已在 Ollama 中提供。
IBM Granite 3.0 模型
2024年10月21日
Ollama 与 IBM 合作,将 Granite 3.0 模型引入 Ollama。
Llama 3.2 变得更小且支持多模态
2024年9月25日
Ollama 与 Meta 合作,将 Llama 3.2 引入 Ollama。
使用 Bespoke-Minicheck 减少幻觉
2024年9月18日
Bespoke-Minicheck 是 Bespoke Labs 开发的一种新的基于事实的检查模型,现已在 Ollama 中提供。 它可以事实检查其他模型生成的响应,以检测和减少幻觉。
工具支持
2024年7月25日
Ollama 现在支持使用 Llama 3.1 等流行模型进行工具调用。 这使得模型可以使用它知道的工具来回答给定的提示,从而使模型能够执行更复杂的任务或与外部世界交互。
Google Gemma 2
2024年6月27日
Gemma 2 现在可以在 Ollama 上使用,有 2B、9B 和 27B 三种尺寸。
编辑器中完全开源的 AI 代码助手
2024年5月31日
Continue 使您可以使用开源 LLM 直接在 Visual Studio Code 和 JetBrains 中轻松创建自己的编码助手。
Google 宣布 Firebase Genkit 支持 Ollama
2024年5月20日
在 Google IO 2024 上,Google 宣布 Firebase Genkit 支持 Ollama,Firebase Genkit 是一个新的开源框架,供开发人员构建、部署和监控生产就绪的 AI 驱动应用程序。
Llama 3 没有受到太多审查
2024年4月19日
与 Llama 2 相比,Llama 3 的审查程度要低得多。 Meta 大幅降低了错误拒绝率。 Llama 3 将拒绝不到 1/3 的先前被 Llama 2 拒绝的提示。
Llama 3
2024年4月18日
Llama 3 现在可以在 Ollama 上运行。 该模型是 Meta 最先进的大型语言模型的下一代产品,并且是迄今为止功能最强大的公开可用 LLM。
嵌入模型
2024年4月8日
嵌入模型可在 Ollama 中使用,从而可以轻松生成向量嵌入,用于搜索和检索增强生成 (RAG) 应用程序。
Ollama 现在支持 AMD 显卡
2024年3月14日
Ollama 现在支持在 Windows 和 Linux 上预览 AMD 显卡。 Ollama 的所有功能现在都可以通过 Linux 和 Windows 版 Ollama 上的 AMD 显卡加速。
Windows 预览版
2024年2月15日
Ollama 现在可以在 Windows 上预览,从而可以在新的原生 Windows 体验中提取、运行和创建大型语言模型。 Windows 上的 Ollama 包括内置的 GPU 加速、访问完整的模型库以及提供 Ollama API,包括 OpenAI 兼容性。
OpenAI 兼容性
2024年2月8日
Ollama 现在具有与 OpenAI Chat Completions API 的初始兼容性,从而可以通过 Ollama 将现有的为 OpenAI 构建的工具与本地模型一起使用。
视觉模型
2024年2月2日
现在提供了新的视觉模型:LLaVA 1.6,参数大小为 7B、13B 和 34B。 这些模型支持更高的分辨率图像、改进的文本识别和逻辑推理。
Python 和 JavaScript 库
2024年1月23日
Ollama Python 和 JavaScript 库的初始版本现已可用,可以轻松地将您的 Python 或 JavaScript 或 Typescript 应用程序与 Ollama 集成,只需几行代码。 这两个库都包含 Ollama REST API 的所有功能,在设计上很熟悉,并且与 Ollama 的新旧版本兼容。
使用客户端技术构建 LLM 驱动的 Web 应用程序
2023年10月13日
使用开源、本地运行的软件重新创建最流行的 LangChain 用例之一 - 执行检索增强生成(简称 RAG)的链,并允许您“与您的文档聊天”
Ollama 现在可以作为官方 Docker 镜像使用
2023年10月5日
Ollama 现在可以在 Mac 上的 Docker Desktop 中运行,也可以在 Linux 上具有 GPU 加速的 Docker 容器中运行。
在您的 Obsidian 笔记中利用 LLM
2023年9月21日
这篇文章介绍了如何在 Obsidian 中使用 Ollama 整合本地 LLM,或者也可以整合到任何笔记工具中。
如何提示 Code Llama
2023年9月9日
本指南介绍了为 Code Llama 及其不同变体和功能(包括说明、代码完成和中间填充 (FIM))构建提示的不同方法。
在本地运行 Code Llama
2023年8月24日
Meta 的 Code Llama 现在可以在 Ollama 上试用。
在本地运行未审查的 Llama 2
2023年8月1日
这篇文章将给出一些示例比较,比较运行 Llama 2 的未审查模型与其审查模型。