OpenClaw 部署与使用完整指南

OpenClaw 是一款功能强大的 AI 助手平台,支持多模型、多渠道接入。如果你正在寻找一个可以私有部署、灵活配置的 AI 助手方案,那这篇文章可能会对你有所帮助——从服务器部署到模型配置,这里有一份完整的实战指南。

目录

  1. 腾讯云轻量应用服务器部署
  2. 配置 Swap 防止服务器卡死
  3. 升级到最新版
  4. 配置钉钉通道
  5. 配置 Qwen 免费模型
  6. 配置 MiniMax 免费试用
  7. 配置 NVIDIA 模型
  8. 项目展示
  9. 总结

1. 腾讯云轻量应用服务器部署

想要跑起 OpenClaw,第一步就是搞一台服务器。腾讯云的轻量应用服务器是个不错的选择,预装好 OpenClaw 镜像,一键就能上手。

1.1 购买服务器

  1. 登录 腾讯云轻量应用服务器控制台
  2. 选择镜像:应用镜像 > OpenClaw
  3. 选择地域和套餐(建议至少 2核 4GB)
  4. 设置登录密码或 SSH 密钥
  5. 完成购买

1.2 初始化配置

# 连接到服务器
ssh root@<你的服务器IP>

# 查看 OpenClaw 版本
openclaw --version

# 查看服务状态
openclaw status

# 启动服务(如果未自动启动)
openclaw gateway start

1.3 开放防火墙端口

在腾讯云控制台的安全组中开放以下端口:

  • 3000 – Web 管理界面
  • 80 – HTTP(可选)
  • 443 – HTTPS(可选)

2. 配置 Swap 防止服务器卡死

轻量级服务器内存有限,跑起 AI 模型来可能会有点吃力。配置 Swap 可以有效防止 OOM(内存不足)导致的卡死或崩溃。

2.1 检查当前 Swap 状态

swapon --show
free -h

2.2 创建 Swap 文件

# 创建 2GB Swap 文件(根据服务器内存调整,建议为物理内存的 1-2 倍)
sudo fallocate -l 2G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile

2.3 永久生效配置

# 备份 fstab
sudo cp /etc/fstab /etc/fstab.bak

# 添加 Swap 挂载
echo "/swapfile none swap sw 0 0" | sudo tee -a /etc/fstab

# 优化 Swap 性能
echo "vm.swappiness=10" | sudo tee -a /etc/sysctl.conf
sudo sysctl -p

2.4 验证配置

swapon --show
free -h

3. 升级到最新版

OpenClaw 提供了便捷的升级命令,定期更新能让你用上最新功能和安全性修复。

# 检查更新
openclaw update check

# 升级到最新版
openclaw update run

# 重启服务
openclaw gateway restart

# 查看当前版本
openclaw --version

小贴士:建议设置一个日历提醒,每隔一两周来看看有没有新版本。

4. 配置钉钉通道

通过钉钉机器人接收和发送消息,随时随地和你的 AI 助手保持联络。

4.1 创建钉钉机器人

  1. 打开钉钉群聊 → 设置 → 群机器人
  2. 添加自定义机器人
  3. 设置机器人名称和头像
  4. 复制 Webhook 地址
  5. 安全设置:建议勾选「签名校验」

4.2 配置 OpenClaw

编辑配置文件 ~/.openclaw/openclaw.json

{
  "channels": {
    "entries": {
      "dingtalk": {
        "enabled": true,
        "type": "dingtalk",
        "config": {
          "webhook": "https://oapi.dingtalk.com/robot/send?access_token=你的Token",
          "sign_secret": "你的签名密钥(可选)"
        }
      }
    }
  }
}

4.3 重启服务

openclaw gateway restart

4.4 测试连接

# 发送测试消息
openclaw message send --channel dingtalk --to 你的钉钉ID --message "OpenClaw 连接测试"

5. 配置 Qwen 免费模型

Qwen(通义千问)是阿里云的 AI 模型,通过 OAuth 授权方式提供免费额度——不用 API Key,授权就能用。

5.1 获取免费授权

  1. 进入 OpenClaw 配置目录:
    cd ~/.openclaw
  2. 使用 OpenClaw 命令启动 OAuth 授权:
    openclaw config set providers.entries.qwen-portal.type oauth
    openclaw config set providers.entries.qwen-portal.oauth.authorizationURL "https://qianwen-oauth.aliyun.com/authorize"
    openclaw config set providers.entries.qwen-portal.oauth.tokenURL "https://qianwen-oauth.aliyun.com/oauth/token"
    openclaw config set providers.entries.qwen-portal.oauth.scopes "api"
  3. 重启服务并访问 Web 界面
  4. 在配置页面或首次使用时,会弹出阿里云授权页面
  5. 点击「授权」完成 OAuth 认证

5.2 配置默认模型

{
  "agents": {
    "defaults": {
      "model": "qwen-portal/coder-model"
    }
  }
}

5.3 可用模型

模型名称 特点 适用场景
qwen-portal/coder-model 代码专用模型 编程任务
qwen-portal/qwen-turbo 快速响应 简单问答
qwen-portal/qwen-plus 增强版 复杂对话

小贴士:OAuth 授权后即享免费额度,无需充值先用为敬。

6. 配置 MiniMax 免费试用

MiniMax 也是一家提供 AI 模型的公司,同样支持 OAuth 授权方式,配置过程和 Qwen 差不多。

6.1 使用 OpenClaw 命令行配置

  1. 进入 OpenClaw 配置目录:
    cd ~/.openclaw
  2. 使用 OpenClaw 命令启动 OAuth 授权:
    openclaw config set providers.entries.minimax-portal.type oauth
    openclaw config set providers.entries.minimax-portal.oauth.authorizationURL "https://api.minimax.chat/oauth/authorize"
    openclaw config set providers.entries.minimax-portal.oauth.tokenURL "https://api.minimax.chat/oauth/token"
    openclaw config set providers.entries.minimax-portal.oauth.scopes "api"
  3. 重启服务并访问 Web 界面
  4. 在配置页面或首次使用时,会弹出 MiniMax 授权页面
  5. 点击「授权」完成 OAuth 认证

6.2 配置默认模型

{
  "agents": {
    "defaults": {
      "model": "minimax-portal/MiniMax-M2.1"
    }
  }
}

6.3 推荐模型

模型名称 特点 适用场景
MiniMax-M2.1 主力模型,综合能力强 日常对话、代码
MiniMax-M2.1-lightning 快速响应 简单问答

小贴士:MiniMax 的免费额度用起来也很香,够日常折腾一阵子了。

7. 配置 NVIDIA 模型

NVIDIA 的 API Catalog 里有一些高性能模型,比如 GLM-4.7,注册后就能调用。

7.1 注册 NVIDIA API

  1. 访问 NVIDIA API Catalog
  2. 点击目标模型(如 GLM-4)
  3. 点击「Get API Key」
  4. 复制 Key

7.2 配置 OpenClaw

{
  "providers": {
    "entries": {
      "nvidia": {
        "apiKey": "nvapi-your-nvidia-api-key"
      }
    }
  },
  "agents": {
    "overrides": {
      "model-aliases": {
        "glm4.7": "nvidia/z-ai/glm4.7"
      }
    }
  }
}

7.3 可用模型

模型 描述
nvidia/z-ai/glm4.7 GLM-4.7 超大杯模型
nvidia/z-ai/glm4.7-chat 对话优化版
nvidia/z-ai/moonshot-k2.5 Kimi K2.5

8. 项目展示

OpenClaw 不只是能聊天,还能帮你生成各种项目。下面这几个是我用 OpenClaw 折腾出来的成果。

8.1 产品介绍页面

项目地址https://oc-web.sfnt.net/products/data-tools/

用 OpenClaw 的项目生成能力,分分钟搞定的产品介绍页面。包含产品特性、使用场景、技术规格,扔给 AI 说「帮我写个产品页」,它就能给你整得有模有样。

8.2 AI 小说

项目地址https://oc-web.sfnt.net/novels/

让 AI 写小说是一种什么体验?我把创意、人物设定、故事大纲扔给 OpenClaw,它给我生成了一整部章节完整的小说。有兴趣可以点进去看看,挺好玩的。

8.3 BTC 行情看板

项目地址https://oc-web.sfnt.net/btc/

这是我的得意之作——一个实时比特币行情看板。功能包括:

  • 实时价格显示(WebSocket 推送)
  • 历史 K 线图表(15分钟 ~ 月线)
  • 技术指标(MA、EMA、MACD、RSI、KDJ)
  • 自动更新功能
  • 移动端适配

平时看看盘、观察观察指标走势,挺方便的。

9. 总结

用 OpenClaw 也有一段时间了,总体感受是——这玩意儿确实香。

核心优势

  • 多模型支持:Qwen、MiniMax、NVIDIA,想用哪个用哪个
  • 多渠道接入:钉钉、Telegram、Discord,装上就能聊
  • 技能系统:装个 Skill 能扩展一堆功能
  • 隐私保护:数据在自己服务器上,不用担心泄露
  • 免费额度:Qwen、MiniMax、NVIDIA 都提供免费额度,够折腾

快速上手建议

  1. 第一步:搞台腾讯云轻量服务器,装好 OpenClaw,配好 Swap
  2. 第二步:把钉钉通道配好,随时能收到消息
  3. 第三步:把 Qwen 或 MiniMax 的 OAuth 配置搞定,先用起来
  4. 第四步:装几个感兴趣的 Skills,探索一下还能玩出什么花样

进阶玩法

  • 定时任务:配置 Crontab,让 AI 定时给你发报告
  • 心跳检测:设置自动健康检查,及时发现问题
  • 多站点管理:用 Skills 同时管多个 WordPress
  • 自定义开发:写自己的 Skills,打造专属功能

以上就是我的 OpenClaw 部署与使用心得,希望能帮到正在折腾的你。如果有任何问题,欢迎交流探讨。


参考资源


本文由 OpenClaw 自动生成

暂无评论

发送评论 编辑评论


				
|´・ω・)ノ
ヾ(≧∇≦*)ゝ
(☆ω☆)
(╯‵□′)╯︵┴─┴
 ̄﹃ ̄
(/ω\)
∠( ᐛ 」∠)_
(๑•̀ㅁ•́ฅ)
→_→
୧(๑•̀⌄•́๑)૭
٩(ˊᗜˋ*)و
(ノ°ο°)ノ
(´இ皿இ`)
⌇●﹏●⌇
(ฅ´ω`ฅ)
(╯°A°)╯︵○○○
φ( ̄∇ ̄o)
ヾ(´・ ・`。)ノ"
( ง ᵒ̌皿ᵒ̌)ง⁼³₌₃
(ó﹏ò。)
Σ(っ °Д °;)っ
( ,,´・ω・)ノ"(´っω・`。)
╮(╯▽╰)╭
o(*////▽////*)q
>﹏<
( ๑´•ω•) "(ㆆᴗㆆ)
😂
😀
😅
😊
🙂
🙃
😌
😍
😘
😜
😝
😏
😒
🙄
😳
😡
😔
😫
😱
😭
💩
👻
🙌
🖕
👍
👫
👬
👭
🌚
🌝
🙈
💊
😶
🙏
🍦
🍉
😣
Source: github.com/k4yt3x/flowerhd
颜文字
Emoji
小恐龙
花!
上一篇
下一篇