Ollama
Ollama 是一個本地 LLM 運行環境,讓您可以輕鬆地在機器上運行開源模型。OpenClaw 整合了 Ollama 的 OpenAI 相容 API,並且當您設定了OLLAMA_API_KEY(或認證設定檔)且未明確定義 models.providers.ollama 項目時,能夠自動探索支援工具調用的模型。
快速開始
- 安裝 Ollama:https://ollama.ai
- 拉取模型:
- 為 OpenClaw 啟用 Ollama(任意值皆可;Ollama 不需要真實的金鑰):
- 使用 Ollama 模型:
模型自動探索 (隱式供應商)
當您設定OLLAMA_API_KEY(或認證設定檔)且未定義 models.providers.ollama 時,OpenClaw 會從位於 http://127.0.0.1:11434 的本地 Ollama 實例探索模型:
- 查詢
/api/tags與/api/show - 僅保留報告具有
tools能力的模型 - 若模型報告
thinking能力,則標記為reasoning - 若可用,從
model_info["<arch>.context_length"]讀取contextWindow - 將
maxTokens設定為上下文視窗的 10 倍 - 將所有成本設定為
0
models.providers.ollama,則會跳過自動探索,您必須手動定義模型(見下文)。
配置說明
基礎設定(隱式探索)
啟用 Ollama 最簡單的方式是透過環境變數:顯式設定(手動定義模型)
在以下情況時使用顯式配置:- Ollama 運行在另一台主機/埠口
- 您想要強制設定特定的上下文視窗或模型清單
- 您想要包含未報告工具支援的模型
OLLAMA_API_KEY,您可以省略供應商設定中的 apiKey,OpenClaw 會自動填入以進行可用性檢查。
自訂 Base URL(顯式設定)
若 Ollama 運行在不同的主機或埠口(顯式設定會停用自動探索,因此需手動定義模型):模型選擇
配置完成後,所有的 Ollama 模型皆可使用:進階設定
推理模型 (Reasoning models)
當 Ollama 在/api/show 中報告 thinking 能力時,OpenClaw 會將該模型標記為具備推理能力:
模型成本
Ollama 是免費且本地運行的,因此所有模型成本皆設為 $0。上下文視窗
對於自動探索的模型,OpenClaw 會使用 Ollama 報告的上下文視窗(若有),否則預設為8192。您可以在顯式供應商配置中覆寫 contextWindow 與 maxTokens。
故障排除
未偵測到 Ollama
請確保 Ollama正在運行,且您已設定OLLAMA_API_KEY(或認證設定檔),並且未定義明確的 models.providers.ollama 項目:
沒有可用的模型
OpenClaw 僅會自動探索報告具有工具支援的模型。若您的模型未列出,請:- 拉取一個支援工具的模型,或
- 在
models.providers.ollama中明確定義該模型。