OpenClaw是一个开源的、轻量级的AI助手项目,基于深度求索公司的DeepSeek等模型,旨在提供一个本地可部署、支持函数调用、中文友好的智能体框架。

核心概念与准备
- 个人版:意味着你可以在一台具备足够资源的个人电脑(台式机/笔记本)或云端服务器(如AutoDL、谷歌Colab等)上运行。
- 核心依赖:Python、大语言模型(需要下载或配置API)、以及项目的源代码。
- 硬件要求:
- CPU版本(推荐初学者):需要至少 8GB 可用内存,推理速度较慢,但安装简单。
- GPU版本(推荐有N卡用户):需要至少 6GB 显存的NVIDIA显卡(如RTX 2060, 3060等),推理速度更快。
- 磁盘空间:至少准备 10-20GB 空间用于存放模型和依赖。
第一步:环境准备
安装 Miniconda/Anaconda(强烈推荐)
用于创建独立的Python环境,避免依赖冲突。
- 前往 Miniconda官网 下载对应你操作系统的安装包。
- 按照指示安装,在终端(Linux/macOS)或 Anaconda Prompt(Windows)中验证:
conda --version
创建并激活虚拟环境
# 激活环境 conda activate openclaw
第二步:获取OpenClaw项目代码
克隆仓库
打开终端(确保已激活 openclaw 环境),执行:
git clone https://github.com/openclaw-ai/OpenClaw.git # 如果github连接慢,可以使用Gitee镜像(如果有的话) # git clone https://gitee.com/xxx/OpenClaw.git (请查看项目主页获取最新镜像地址) cd OpenClaw
安装项目依赖
pip install -r requirements.txt
注意:如果遇到网络问题,可以使用国内镜像源加速:
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
第三步:配置模型(关键步骤)
OpenClaw需要一个大语言模型作为核心引擎,你有两种选择:
方案A:使用在线API(最简单,无需高配置)
- 修改配置文件,通常项目根目录下有一个
config.yaml或.env.example文件。 - 复制一份并重命名:
cp .env.example .env
- 编辑
.env文件,填入你的API密钥,使用DeepSeek API:LLM_API_TYPE=deepseek DEEPSEEK_API_KEY=你的sk-xxxxxxxxxxxxxx # 其他配置保持默认 - 这种方式无需下载模型,运行速度快,但会产生API费用。
方案B:使用本地模型(完全离线,需要硬件)
这是“个人版”本地部署的核心。
-
下载模型:OpenClaw通常与
Qwen(通义千问)或DeepSeek的量化模型兼容,以 Qwen2.5-7B-Instruct 的4位量化版为例:- 推荐下载平台:
- Hugging Face: https://huggingface.co/Qwen
- ModelScope: https://modelscope.cn/models/qwen
- 使用
git-lfs或直接下载,在项目目录下创建一个models文件夹:mkdir models cd models git lfs install git clone https://huggingface.co/Qwen/Qwen2.5-7B-Instruct-GPTQ-Int4
(如果没有
git-lfs,请先安装,或者直接从网页手动下载所有文件到此目录)
- 推荐下载平台:
-
配置本地模型路径: 编辑
.env文件,配置为使用本地模型:LLM_API_TYPE=local LOCAL_MODEL_PATH=./models/Qwen2.5-7B-Instruct-GPTQ-Int4 # 根据你的显卡选择设备,有GPU就用cuda DEVICE=cuda # 或 cpu
第四步:运行OpenClaw
启动Web UI界面(最直观)
大多数开源AI助手项目都提供了类似ChatGPT的网页界面。
# 通常在项目根目录下运行类似命令,具体请查看项目的 README.md python webui.py # 或者 streamlit run app.py
运行成功后,终端会显示一个本地URL(如 http://127.0.0.1:7860 或 http://localhost:8501),用浏览器打开这个链接即可开始对话。
启动命令行界面
如果项目提供了CLI工具,可以:
python cli.py
第五步:验证与测试
- 在Web UI或CLI中,尝试问一个问题,“你好,介绍一下你自己。”
- 观察响应,第一次加载本地模型可能需要几十秒到几分钟(取决于你的硬盘和CPU/GPU速度),后续对话会快很多。
- 尝试其特色功能,如“函数调用”(如果项目支持),“帮我查一下北京今天的天气。”(这需要你预先配置好对应的天气API工具)。
常见问题与排错
- CUDA Out of Memory:GPU显存不足,尝试使用更小的量化模型(如3B、1.5B型号),或者在
.env中设置DEVICE=cpu使用CPU推理。 - 依赖安装失败:
- 确保Python版本为3.9或3.10。
- 尝试升级pip:
pip install --upgrade pip - 逐个安装主要依赖:
pip install torch torchvision torchaudio(根据CUDA版本去PyTorch官网获取命令)。
- 模型加载慢/报错:
- 检查模型文件是否完整。
- 确认
.env中的LOCAL_MODEL_PATH路径是否正确。
- 找不到命令/模块:
- 确保始终在
conda activate openclaw激活的虚拟环境下操作。 - 确保在项目根目录
OpenClaw/下运行命令。
- 确保始终在
进阶提示
- 性能调优:对于本地模型,可以研究
transformers库的加载参数,如load_in_4bit,load_in_8bit来进一步节省显存。 - 工具扩展:阅读项目的
tools/目录或相关文档,学习如何为你自己的OpenClaw添加新的自定义功能(如查询数据库、发送邮件等)。 - 关注社区:项目问题和讨论区是解决问题的宝库。
最重要的建议:始终以项目官方Git仓库的 README.md 和 docs/ 文档为最权威的安装依据,本指南提供了一个通用流程,但具体细节可能随项目版本更新而变化。
祝你在本地成功部署属于你自己的AI小龙虾!