OpenClaw 安装向导Install Guideインストールガイド

FEAIA 内置一键安装流程,无需手动修改配置文件。按以下步骤,约 5 分钟完成 OpenClaw 全部配置。 FEAIA ships a one-click install flow — no manual config file editing required. Follow the steps below to fully configure OpenClaw in ~5 minutes. FEAIAにはワンクリックインストールフローが内蔵されており、設定ファイルの手動編集は不要です。以下の手順に従い、約5分でOpenClawを完全に設定できます。

⏱ ~5 min 🪟 Windows 10/11 🆓 核心免费Free Coreコア無料
1

前置准备Prerequisites前提条件

确认 FEAIA 已安装,选择 AI 运行时Confirm FEAIA is installed and choose an AI runtimeFEAIAがインストール済みであることを確認し、AIランタイムを選択
已安装 FEAIA v0.9+?直接打开 设置 → OpenClaw → 一键安装,向导将自动完成以下所有步骤。本页面为手动参考文档。 Already have FEAIA v0.9+ installed? Open Settings → OpenClaw → Quick Setup — the wizard automates all steps below. This page is the manual reference. FEAIA v0.9以上がインストール済みの場合は、設定 → OpenClaw → クイックセットアップを開いてください — ウィザードが以下の全手順を自動化します。このページは手動リファレンスです。
安装 FEAIAInstall FEAIAFEAIAをインストール

前往下载页获取最新版安装包(v0.9.2+)。Get the latest installer (v0.9.2+) from the download page.ダウンロードページから最新インストーラー(v0.9.2以上)を入手してください。

下载页Download pageダウンロードページ
系统要求检查System checkシステム確認

Windows 10 1903 / 11 x64,.NET 8 Runtime(安装包自带),8 GB RAM+(推荐)。Windows 10 1903 / 11 x64, .NET 8 Runtime (bundled), 8 GB RAM+ recommended.Windows 10 1903 / 11 x64、.NET 8 Runtime(同梱)、8 GB RAM以上推奨。

选择 AI 后端(下一步详述)Choose AI backend (detailed next step)AIバックエンドを選択(次のステップで詳述)

Ollama(推荐·本地)/ LM Studio / OpenAI 兼容 API(云端),三选一即可。Ollama (recommended · local) / LM Studio / OpenAI-compatible API (cloud). Choose one.Ollama(推奨・ローカル)/ LM Studio / OpenAI互換API(クラウド)の3つから1つ選択。


2

选择 AI 后端Choose AI BackendAIバックエンドを選択

三种接入方式,按需选择Three connection methods — choose by need3種類の接続方法 — ニーズに応じて選択
Ollama 完全本地运行,数据不上云,支持 Qwen 2.5、Llama 3.2 等主流模型,推荐大多数用户使用。 Ollama runs fully locally, data stays on device, supports Qwen 2.5, Llama 3.2 and most popular models. Recommended for most users. Ollamaは完全ローカルで動作し、データはデバイスに留まります。Qwen 2.5、Llama 3.2などの主要モデルをサポート。ほとんどのユーザーに推奨。
1
安装 OllamaInstall OllamaOllamaをインストール

访问 ollama.com 下载 Windows 安装包,双击安装,系统托盘出现 Ollama 图标即成功。Visit ollama.com, download the Windows installer, double-click to install. Ollama icon in system tray = success.ollama.comにアクセスし、Windowsインストーラーをダウンロード、ダブルクリックしてインストール。システムトレイにOllamaアイコンが表示されれば成功。

2
拉取模型Pull a modelモデルをプル
PowerShell
# 推荐:Qwen 2.5:7b(中文优先,综合能力强)
ollama pull qwen2.5:7b

# 低配机器可用 3B 版本
ollama pull qwen2.5:3b

# 英文优先可用 Llama
ollama pull llama3.2:3b
3
FEAIA 内填写接入信息Enter connection info in FEAIAFEAIAで接続情報を入力
FEAIA Settings
Backend:   Ollama
Base URL:  http://localhost:11434
Model:     qwen2.5:7b   (auto-detected from pull list)
LM Studio 提供图形化模型管理界面,适合不熟悉命令行的用户。启用本地服务器后与 Ollama 接入方式相同。 LM Studio provides a GUI for model management — great for users unfamiliar with command-line. Once local server is enabled, connection is identical to Ollama. LM Studioはモデル管理のGUIを提供 — コマンドラインに不慣れなユーザーに最適。ローカルサーバーを有効化すると、Ollamaと同じ接続方法になります。
1
下载并安装 LM StudioDownload & install LM StudioLM Studioをダウンロード&インストール

访问 lmstudio.ai,下载 Windows 版,安装后在"Models"页面搜索并下载你想要的模型。Visit lmstudio.ai, download the Windows build. After install, search and download your chosen model from the Models tab.lmstudio.aiにアクセスし、Windows版をダウンロード。インストール後、Modelsタブから目的のモデルを検索してダウンロード。

2
启用本地服务器Enable local serverローカルサーバーを有効化

在 LM Studio 顶部点击"Local Server"标签 → 选择已下载的模型 → 点击 Start Server。默认端口 1234。In LM Studio, click the "Local Server" tab at the top → select your downloaded model → click Start Server. Default port is 1234.LM Studioの上部にある「Local Server」タブをクリック → ダウンロードしたモデルを選択 → サーバーを起動。デフォルトポートは1234。

3
FEAIA 内填写接入信息Enter connection info in FEAIAFEAIAで接続情報を入力
FEAIA Settings
Backend:   LM Studio
Base URL:  http://localhost:1234
Model:     lmstudio-community/Qwen2.5-7B-Instruct-GGUF
使用 OpenAI API 或兼容接口(如 DeepSeek、智谱、Moonshot)时,对话内容将发送至第三方服务器。如有隐私顾虑,推荐使用本地方案。 When using OpenAI API or compatible endpoints (DeepSeek, Zhipu, Moonshot etc.), conversation content is sent to third-party servers. For privacy-sensitive use cases, choose a local backend. OpenAI APIまたは互換エンドポイント(DeepSeek、Zhipu、Moonshot等)を使用する場合、会話内容はサードパーティサーバーに送信されます。プライバシーが重要な場合はローカルバックエンドを選択してください。
1
获取 API KeyObtain API KeyAPIキーを取得

在对应平台的控制台中创建 API Key,复制备用。Create an API Key in your provider's console and copy it.プロバイダーのコンソールでAPIキーを作成してコピーしてください。

2
FEAIA 内填写接入信息Enter connection info in FEAIAFEAIAで接続情報を入力
FEAIA Settings
# OpenAI
Backend:   OpenAI Compatible
Base URL:  https://api.openai.com/v1
API Key:   sk-••••••••••••••••
Model:     gpt-4o

# DeepSeek(国内推荐)
Base URL:  https://api.deepseek.com/v1
Model:     deepseek-chat

3

启用模块包Enable Module Bundlesモジュールバンドルを有効化

按需选择,随时增删Select by need, add/remove anytime必要に応じて選択、いつでも追加・削除可能

模块包是预配置好参数的智能工具集合(OpenClaw Skill 的升级形态)。选择适合你使用场景的包,点击确认后将自动下载并激活。 Module bundles are pre-configured smart tool collections (upgraded form of OpenClaw Skills). Select bundles that match your use case — confirm to auto-download and activate. モジュールバンドルは、事前設定済みのスマートツールコレクション(OpenClaw Skillの強化形態)です。ユースケースに合ったバンドルを選択し、確認するとダウンロードして自動的に有効化されます。

📋
效率办公Productivity生産性
19 个模块modulesモジュール
📁
文件系统Filesystemファイルシステム
12 个模块modulesモジュール
🎨
创意生成Creativeクリエイティブ
16 个模块modulesモジュール
📧
通讯邮件Communicationコミュニケーション
11 个模块modulesモジュール
⚙️
自动化脚本Automation自動化
24 个模块modulesモジュール
🌐
网络搜索Web & SearchWeb&検索
9 个模块modulesモジュール
更多模块请访问 模块库页面,可按需单独启用/禁用,或安装社区贡献的自定义模块。 For more modules, visit the Module Library — enable/disable individually or install community-contributed custom modules. その他のモジュールはモジュールライブラリをご覧ください — 個別に有効化/無効化したり、コミュニティ製カスタムモジュールをインストールできます。

🦀 OPTIONAL

SpryClaw — OpenClaw 定制增强版OpenClaw Custom EnhancementOpenClawカスタム強化版

SpryClaw 是运行在 OpenClaw 之上的协作增强层。通过与 FEAIA 虚拟形象的日常互动,逐步积累你的偏好数据,让 AI 更懂你的习惯。所有数据储存在本地单独分区,绝对隐私。 SpryClaw is a collaboration enhancement layer built on top of OpenClaw. Through daily interactions with your FEAIA avatar, it gradually accumulates your preference data so the AI understands your habits better. All data is stored in a local isolated partition — absolute privacy. SpryCrawlはOpenClaw上に構築された協働強化レイヤーです。FEAIAアバターとの日常的な対話を通じて、あなたの好みデータを徐々に蓄積し、AIがあなたの習慣をより深く理解できるようにします。すべてのデータはローカルの独立パーティションに保存され、完全なプライバシーを保証します。

通过互动积累偏好数据,AI 越用越懂你Preference data builds through interaction — AI grows smarter over timeインタラクションを通じて好みデータを蓄積 — AIが時間とともに賢くなる
协作历史记录,可导出为 MCC 兼容格式Collaboration history exportable to MCC-compatible formatコラボレーション履歴をMCC互換フォーマットでエクスポート可能
数据单独分区储存,随时可一键清除Data in isolated partition, deletable anytime with one clickデータは独立パーティションに保存、ワンクリックでいつでも削除可能
不影响 OpenClaw 核心功能,可随时禁用Does not affect core OpenClaw; disable at any timeOpenClawのコア機能には影響せず、いつでも無効化可能
SpryClaw — 默认关闭,勾选后安装向导将自动配置 — off by default; check to have the wizard auto-configure it — デフォルトでオフ、チェックするとウィザードが自動設定
4

验证安装Verify Installationインストールを確認

测试 OpenClaw 是否正常工作Test that OpenClaw is working correctlyOpenClawが正常に動作しているかテスト
在 FEAIA 对话框中输入测试指令Type a test command in the FEAIA chatFEAIAのチャットにテストコマンドを入力
Chat Input
列出我桌面上最近修改的5个文件
// List the 5 most recently modified files on my desktop

FEAIA 应调用 list_files 工具并返回结果列表。若返回结果,OpenClaw 工作正常。FEAIA should invoke the list_files tool and return a list. If results appear, OpenClaw is working.FEAIAがlist_filesツールを呼び出してリストを返すはずです。結果が表示されればOpenClawは正常に動作しています。

在 FEAIA 设置中查看工具调用日志Check the tool call log in FEAIA SettingsFEAIA設定でツール呼び出しログを確認

设置 → OpenClaw → 诊断 → 工具调用日志,可查看每次工具调用的详情和耗时。Settings → OpenClaw → Diagnostics → Tool Call Log — view details and latency of every tool invocation.設定 → OpenClaw → 診断 → ツール呼び出しログ — 各ツール呼び出しの詳細とレイテンシを表示。

🎉

配置完成!Setup Complete!セットアップ完了!

OpenClaw 已就绪。接下来可以浏览模块库激活更多能力,或选择助手人格配置专属工作方式。 OpenClaw is ready. Explore the module library to unlock more capabilities, or configure an assistant profile to shape how your AI works. OpenClawの準備が完了しました。モジュールライブラリでさらに多くの機能を解放するか、アシスタントプロファイルを設定してAIの動作方法をカスタマイズしましょう。