如何在 Windows 下安装 OpenClaw:完整配置指南
OpenClaw(曾用名 ClawdBot/Moltbot)是目前极为火热的开源 AI Agent 项目。与普通的聊天机器人不同,OpenClaw 是一个真正能够在本地执行任务的个人 AI 助理。它不仅可以自动化处理邮件、日历、文件管理等任务,而且所有数据都存储在你的本地设备上,最大程度保障了隐私和数据安全。
本文将为你提供一份详尽的 Windows 下安装与配置 OpenClaw 的指南。
一、 准备工作 (Prerequisites)
在开始安装之前,请确保你的 Windows 环境满足以下基本条件:
- 操作系统:Windows 10 或 Windows 11。
- Node.js 环境:OpenClaw 核心依赖于 Node.js,且强烈建议使用 Node.js v22 或以上版本。
- 终端工具:推荐使用 PowerShell 或 Windows Terminal(需要以管理员身份运行部分命令)。
二、 详细安装步骤
1. 安装 Node.js v22
如果你还没有安装 Node.js,或者版本低于 v22,你可以通过以下两种方式之一进行安装:
方式 A:通过官网安装(适合新手)
前往 Node.js 官方网站,下载对应 Windows 的 v22 (LTS) 安装包(.msi 文件),按照提示一路点击“下一步”完成安装。
方式 B:使用 nvm-windows 安装(推荐,方便多版本管理) 如果你已经安装了 nvm-windows,只需在具有管理员权限的 PowerShell 中运行:
# 安装 Node.js 22 版本
nvm install 22
# 切换并使用该版本
nvm use 22
安装完成后,可以在终端中验证版本:
node -v
# 输出应为 v22.x.x
npm -v
2. 全局安装 OpenClaw
Node.js 环境准备就绪后,我们就可以通过 npm(Node 包管理器)来全局安装 OpenClaw 了。在终端中执行以下命令:
npm install -g openclaw@latest
提示:安装过程可能需要几分钟,具体取决于你的网络状况。
3. 初始化与环境配置
安装完成后,你需要对 OpenClaw 进行初始设置。在终端中运行:
openclaw setup
进入交互式配置流程后,按照提示进行操作。通常你需要准备以下信息:
- 大模型 API Key:OpenClaw 需要借助 LLM(如 Anthropic Claude 3.5 Sonnet 或 OpenAI GPT-4o)来进行决策。请提前准备好你的 API Key。
- 本地工作区目录:指定 OpenClaw 能够访问和操作的文件夹范围,出于安全考虑,建议只授予其访问特定项目文件夹的权限。
4. 验证安装并启动
配置完成后,直接在终端中输入以下命令启动 OpenClaw:
openclaw
如果一切顺利,你将看到 OpenClaw 的交互界面。此时,你可以尝试给它下达第一个指令,例如:“帮我在桌面上创建一个名为 test.txt 的文件,并写入'Hello OpenClaw'”。
三、 模型提供商配置 (Model Configuration)
OpenClaw 作为一个 Agent,必须依赖大语言模型 (LLM) 才能运行。为了达到最佳的使用体验,推荐在配置时仔细选择最适合的 LLM 大模型。
1. 云端大模型配置 (Cloud Providers)
在终端运行 openclaw setup 时,或通过直接编辑配置文件(通常位于 ~/.openclaw/config.json),你可以配置主流的云端模型服务:
- Anthropic Claude 3.5 Sonnet (强推): OpenClaw 对 Claude 3.5 Sonnet 的支持最好,因其强大的代码能力和指令遵循能力,非常适合用作核心 Agent。你需要去 Anthropic 官网获取
ANTHROPIC_API_KEY。 - OpenAI GPT-4o: 也是非常出色的选择,配置时需填入
OPENAI_API_KEY。
如果你在国内网络环境下,也可以非常方便地使用API 代理或国内大模型(如 DeepSeek-V3/R1、阿里云百炼等提供 OpenAI 兼容格式的 API)。只需在配置时选择 OpenAI 兼容协议 (OpenAI Compatible),将 Base URL 指向对应的服务代理接口,并填入对应平台的 API Key 即可。
2. 本地私有化模型配置 (Local Models)
如果你非常看重数据隐私,或者希望 100% 免费运行,可以将 OpenClaw 接入本地大模型:
- Ollama 接入: 通过安装 Ollama 并在本地运行诸如
llama3.3或qwen2.5-coder等开源模型。然后在 OpenClaw 的配置中将提供商设置为 Ollama,并填入默认的http://127.0.0.1:11434作为接口地址。 - Docker Model Runner: 结合前文提到的 Docker,你可以执行
docker model pull ai/gpt-oss:20B-UD-Q4_K_XL等命令拉取并运行模型,然后在 OpenClaw 设置中指定此本地节点。
注意: 无论是云端还是本地,都要确保所选模型具有较强的上下文理解和 **Function Calling(工具调用)**能力,这是 OpenClaw 能够真正“自动化操作”的基础。
四、 进阶与安全建议
- 权限控制:作为具有文件操作权限的 Agent,务必不要让其在系统盘(C盘)根目录等敏感位置运行,防止误删系统文件。
- Docker 沙盒运行:对于高级用户,强烈建议将 OpenClaw 运行在 Docker Sandboxes 中(需安装 Docker Desktop 并开启 Docker Model Runner)。这样可以通过隔离的微型虚拟机彻底切断 Agent 对主机的非预期访问,实现极致的安全性。
- 自定义 Skills:OpenClaw 支持丰富的 Agent Skills 生态,你可以通过
npx skills add <skill-name>进一步扩展其能力(如接入 Google Workspace、自动化浏览器等)。
结语
在 Windows 上配置 OpenClaw 并不复杂,只要确保 Node.js 环境正确配置即可。现在,你已经成功将这个强大的本地 AI 助理部署到了你的电脑上,尽情探索自动化工作流带来的效率飞跃吧!