Hugging Face(推理)
Hugging Face 推理提供者透過單一路由器 API 提供 OpenAI 相容聊天完成。您使用一個令牌取得許多模型(DeepSeek、Llama 等)的存取。OpenClaw 使用 OpenAI 相容端點(僅聊天完成);用於文字轉影像、嵌入或語音,請直接使用 HF 推理用戶端。- 提供者:
huggingface - 認證:
HUGGINGFACE_HUB_TOKEN或HF_TOKEN(細粒度令牌,具有對推理提供者進行呼叫權限) - API:OpenAI 相容(
https://router.huggingface.co/v1) - 計費:單一 HF 令牌;定價遵循提供者費率,有免費層級。
快速開始
- 在 Hugging Face → 設定 → 令牌,建立對推理提供者進行呼叫權限的細粒度令牌。
- 執行上線並在提供者下拉清單中選擇 Hugging Face,然後在提示時輸入 API 鑰:
- 在預設 Hugging Face 模型下拉清單中,選擇所需模型(當有效令牌時,清單從推理 API 加載;否則顯示內建清單)。選擇被儲存為預設模型。
- 您也可以稍後在設定中設定或變更預設模型:
非互動範例
huggingface/deepseek-ai/DeepSeek-R1 作為預設模型。
環境註記
如果 Gateway 作為守護程式執行(launchd / systemd),確保HUGGINGFACE_HUB_TOKEN 或 HF_TOKEN
對該程序可用(例如,在 ~/.openclaw/.env 或透過
env.shellEnv)。
模型發現和上線下拉清單
OpenClaw 透過直接呼叫推理端點探索模型:Authorization: Bearer $HUGGINGFACE_HUB_TOKEN 或 $HF_TOKEN 以取得完整清單;某些端點在沒有認證時返回子集)。回應是 OpenAI 風格 { "object": "list", "data": [ { "id": "Qwen/Qwen3-8B", "owned_by": "Qwen", ... }, ... ] }。
當設定 Hugging Face API 鑰(透過上線、HUGGINGFACE_HUB_TOKEN 或 HF_TOKEN)時,OpenClaw 使用此 GET 探索可用聊天完成模型。在互動上線期間,輸入令牌後,您見到來自該清單的預設 Hugging Face 模型下拉清單(或內建目錄如果請求失敗)。在執行時(例如 Gateway 啟動),當鑰存在時,OpenClaw 再次呼叫 GET https://router.huggingface.co/v1/models 重新整理目錄。清單與內建目錄合併(用於中繼資料,如內容視窗和成本)。如果請求失敗或未設定鑰,則只使用內建目錄。
模型名稱和可編輯選項
- API 名稱: 模型顯示名稱是透過 GET /v1/models 進行水文化,當 API 返回
name、title或display_name時;否則從模型 ID 衍生(例如deepseek-ai/DeepSeek-R1→ “DeepSeek R1”)。 - 覆蓋顯示名稱: 您可以在設定中為每個模型設定自訂標籤,使其在 CLI 和 UI 中顯示為您想要的方式。