Ollama

开始使用开放模型进行构建。

下载

macOS

curl -fsSL https://ollama.com/install.sh | sh

手动下载

Windows

irm https://ollama.com/install.ps1 | iex

手动下载

Linux

curl -fsSL https://ollama.com/install.sh | sh

手动安装说明

Docker

官方的 Ollama Docker 镜像 ollama/ollama 可在 Docker Hub 上获取。

社区

快速开始

ollama

系统会提示您运行模型,或者将 Ollama 连接到您现有的智能体或应用程序,例如 claudecodexopenclaw 等。

编码

要启动特定的集成:

ollama launch claude

支持的集成包括 Claude CodeCodexDroidOpenCode

AI 助手

使用 OpenClaw 将 Ollama 转变为跨 WhatsApp、Telegram、Slack、Discord 等的个人 AI 助手:

ollama launch openclaw

与模型聊天

运行并与 Gemma 3 聊天:

ollama run gemma3

完整列表请参见 ollama.com/library

更多详情请参阅快速入门指南

REST API

Ollama 提供了用于运行和管理模型的 REST API。

curl http://localhost:11434/api/chat -d '{
  "model": "gemma3",
  "messages": [{
    "role": "user",
    "content": "Why is the sky blue?"
  }],
  "stream": false
}'

有关所有端点的信息,请参阅 API 文档

Python

pip install ollama
from ollama import chat

response = chat(model='gemma3', messages=[
  {
    'role': 'user',
    'content': 'Why is the sky blue?',
  },
])
print(response.message.content)

JavaScript

npm i ollama
import ollama from "ollama";

const response = await ollama.chat({
  model: "gemma3",
  messages: [{ role: "user", content: "Why is the sky blue?" }],
});
console.log(response.message.content);

支持的后端

  • llama.cpp 项目,由 Georgi Gerganov 创建。

文档

社区集成

想添加您的项目?请发起拉取请求。

聊天界面

Web

桌面

  • Dify.AI - LLM 应用开发平台
  • AnythingLLM - 面向 Mac、Windows 和 Linux 的全能 AI 应用
  • Maid - 跨平台移动和桌面客户端
  • Witsy - 面向 Mac、Windows 和 Linux 的 AI 桌面应用
  • Cherry Studio - 多提供商桌面客户端
  • Ollama App - 跨平台客户端,支持桌面和移动端
  • PyGPT - 面向 Linux、Windows 和 Mac 的 AI 桌面助手
  • Alpaca - 面向 Linux 和 macOS 的 GTK4 客户端
  • SwiftChat - 跨平台,包括 iOS、Android 和 Apple Vision Pro
  • Enchanted - 原生 macOS 和 iOS 客户端
  • RWKV-Runner - 多模型桌面运行器
  • Ollama Grid Search - 评估和比较模型
  • macai - 面向 Ollama 和 ChatGPT 的 macOS 客户端
  • AI Studio - 多提供商桌面 IDE
  • Reins - 参数调优和推理模型支持
  • ConfiChat - 注重隐私,支持可选加密
  • LLocal.in - Electron 桌面客户端
  • MindMac - Mac 版 AI 聊天客户端
  • Msty - 多模型桌面客户端
  • BoltAI for Mac - Mac 版 AI 聊天客户端
  • IntelliBar - macOS AI 助手
  • Kerlig AI - macOS AI 写作助手
  • Hillnote - Markdown 优先的 AI 工作区
  • Perfect Memory AI - 通过屏幕和会议历史进行个性化的生产力 AI

移动端

上面列出的 SwiftChat、Enchanted、Maid、Ollama App、Reins 和 ConfiChat 也支持移动平台。

代码编辑器与开发

库与 SDK

框架与智能体

RAG 与知识库

  • RAGFlow - 基于深度文档理解的 RAG 引擎
  • R2R - 开源 RAG 引擎
  • MaxKB - 开箱即用的 RAG 聊天机器人
  • Minima - 本地部署或完全本地的 RAG
  • Chipper - 使用 Haystack RAG 的 AI 界面
  • ARGO - 在 Mac/Windows/Linux 上的 RAG 与深度研究
  • Archyve - 支持 RAG 的文档库
  • Casibase - 具备 RAG 和 SSO 的 AI 知识库
  • BrainSoup - 原生客户端,支持 RAG 和多智能体自动化

机器人与消息

终端与 CLI

生产力与应用

可观测性与监控

  • Opik - 调试、评估和监控 LLM 应用
  • OpenLIT - 面向 Ollama 和 GPU 的 OpenTelemetry 原生监控
  • Lunary - LLM 可观测性,包含分析和 PII 脱敏
  • Langfuse - 开源 LLM 可观测性
  • HoneyHive - 面向智能体的 AI 可观测性与评估
  • MLflow Tracing - 开源 LLM 可观测性

数据库与嵌入

  • pgai - 作为向量数据库的 PostgreSQL(指南
  • MindsDB - 将 Ollama 与 200+ 数据平台连接
  • chromem-go - 用于 Go 的可嵌入向量数据库(示例
  • Kangaroo - AI 驱动的 SQL 客户端

基础设施与部署

包管理器

参考资料