すべてのプロダクト
Search
ドキュメントセンター

Alibaba Cloud Model Studio:OpenClaw

最終更新日:Mar 31, 2026

OpenClaw を使用した Coding Plan のセットアップおよび利用方法について説明します。OpenClaw(旧称:Moltbot/Clawdbot)は、複数のメッセージングチャネルを介して AI と対話可能なオープンソースのパーソナル AI アシスタントプラットフォームです。

OpenClaw のインストール

手動インストール

  1. Node.js のインストールまたは更新

    1. 現在のバージョンを確認します。Node.js はバージョン 22.0 以降が必要です。「command not found」と表示された場合は、Node.js が未インストールです。また、バージョンが 22.0 より低い場合は、Node.js を更新してください。

      macOS でターミナルを開くには、Command + Space キーを押して「Terminal」と入力し、Enter キーを押します。Windows でターミナルを開くには、Windows キーを押して「Terminal」「PowerShell」または「cmd」と入力し、Enter キーを押します。
      node -v
    2. ダウンロードおよびインストールを行います。Node.js のウェブサイトにアクセスし、バージョン番号 >= 22.x.x の長期サポート(LTS)版を選択して、ご利用のオペレーティングシステムに対応するインストーラーをダウンロードします。

      たとえば、Windows の場合、Windows インストーラー(.msi)をダウンロードします。macOS の場合、macOS インストーラー(.pkg)をダウンロードします。
  2. 以下のコマンドを実行して OpenClaw をインストールします。

    1. macOS または Linux の場合:

      Command + Space キーを押して「Terminal」と入力し、Enter キーを押します。

      curl -fsSL https://openclaw.ai/install.sh | bash
    2. Windows の場合:

      タスクバーの検索ボックスで PowerShell を入力し、「管理者として実行」を選択します。PowerShell で以下のコマンドを実行します:

      iwr -useb https://openclaw.ai/install.ps1 | iex
  3. インストール後、画面上の指示に従って OpenClaw を構成します。参考となる構成設定を以下に示します。

    項目

    構成

    この機能は強力ですが、本質的にリスクを伴います。続行しますか?

    [はい] を選択します

    オンボーディングモード

    [クイックスタート] を選択します

    モデル/認証プロバイダー

    当面は [スキップ] を選択します。後から構成できます。

    プロバイダーによるモデルのフィルター

    [すべてのプロバイダー] を選択します

    デフォルトモデル

    デフォルト設定を使用します

    チャネルの選択(クイックスタート)

    当面は [スキップ] を選択します。後から構成できます。

    スキルを今すぐ構成しますか?(推奨)

    [いいえ] を選択します。後から構成できます。

    フックを有効化しますか?

    Space キーを押して [スキップ] を選択し、Enter キーを押して続行します。

    ボットをどのように起動しますか?

    TUI で [ハッチ] を選択してください。

Qwen Code を使用したインストールのガイド

OpenClaw は Node.js を必要とします。手動インストールでは構成エラーが発生する可能性があります。そのため、Qwen Code を使用して自動的にインストールおよび検証することを推奨します。

  1. Qwen Code のインストールおよび構成を行います。

  2. ターミナルから Qwen Code を起動します。

    qwen
  3. Qwen Code のチャットウィンドウに以下の指示を入力します。

    1. macOS または Linux の場合:

        OpenClaw をインストールし、以下のコマンドを実行して初期セットアップを完了します:
        1. 前提条件:Node.js(v22.0 以降)をインストールします。node --version で確認します。アップグレード時に既存の Node.js をアンインストールしないでください。
        2. curl -fsSL https://openclaw.ai/install.sh | bash -s -- --no-onboard
        3. openclaw gateway install
        4. openclaw onboard --non-interactive --accept-risk --flow quickstart --auth-choice skip --skip-channels --skip-skills
        5. openclaw status を実行して、OpenClaw が正常に動作していることを確認します
    2. Windows の場合:

      Windows での OpenClaw のインストール手順:
      
      ## 実行指示
      
      すべての PowerShell コマンドは以下の形式で実行します:
      ```
      powershell -ExecutionPolicy Bypass -Command "<command>"
      ```
      
      ### 注意事項:
      1. 複数行のファイルを作成するには `write_file` ツールを使用します。ヒアストリング構文は使用しないでください。
      2. 環境変数を変更した後は、同じセッション内でその変数を使用するために `$env:Path` を明示的にリフレッシュします。
      3. ネットワーク経由のダウンロードコマンドには長めのタイムアウト(≥120000 ms)を設定します。
      
      ---
      
      ## ステップ 1:前提条件の確認
      
      以下のツールがインストール済みであり、そのバージョンが表示されることを確認します:
      - `node --version`(v22 以降が必要)
      - `npm --version`
      - `git --version`
      
      すべてがインストール済みで、Node.js のバージョンが v22 以上であれば、ステップ 4 に進んでください。
      
      ---
      
      ## ステップ 2:Node.js のインストール(未インストールまたは古い場合)
      
      1. システムアーキテクチャー(x64 / x86 / ARM64)を検出します。
      2. 公式ソースから Node.js の zip をダウンロードおよび展開します:
      ```
      powershell -ExecutionPolicy Bypass -Command "$ProgressPreference = 'SilentlyContinue'; Invoke-WebRequest -Uri 'https://nodejs.org/dist/v24.0.0/node-v24.0.0-win-x64.zip' -OutFile \"$env:TEMP\node24.zip\"; Expand-Archive \"$env:TEMP\node24.zip\" -DestinationPath \"$env:LOCALAPPDATA\nodejs-v24\" -Force; Remove-Item \"$env:TEMP\node24.zip\""
      ```
      3. システム PATH に追加します(新しいターミナルでも利用可能):
      ```
      powershell -ExecutionPolicy Bypass -Command "$nodePath = \"$env:LOCALAPPDATA\nodejs-v24\node-v24.0.0-win-x64\"; $machinePath = [Environment]::GetEnvironmentVariable('PATH', 'Machine'); [Environment]::SetEnvironmentVariable('PATH', \"$nodePath;$machinePath\", 'Machine'); $env:Path = \"$nodePath;$env:Path\"; node --version; npm --version"
      ```
      
      ---
      
      ## ステップ 3:Git のインストール(未インストールの場合)
      
      1. 公式ソースから Git をダウンロードおよびサイレントインストールします:
      ```
      powershell -ExecutionPolicy Bypass -Command "$ProgressPreference = 'SilentlyContinue'; Invoke-WebRequest -Uri 'https://github.com/git-for-windows/git/releases/download/v2.53.0.windows.2/Git-2.53.0.2-64-bit.exe' -OutFile \"$env:TEMP\Git-Installer.exe\"; Start-Process -FilePath \"$env:TEMP\Git-Installer.exe\" -ArgumentList '/VERYSILENT','/NORESTART','/NOCANCEL','/SP-','/CLOSEAPPLICATIONS','/RESTARTAPPLICATIONS','/COMPONENTS=icons,ext\reg\shellhere,assoc,assoc_sh' -Wait; Remove-Item \"$env:TEMP\Git-Installer.exe\""
      ```
      2. PATH をリフレッシュして確認します:
      ```
      powershell -ExecutionPolicy Bypass -Command "$machinePath = [Environment]::GetEnvironmentVariable('PATH', 'Machine'); $env:Path = \"$machinePath;$env:Path\"; git --version"
      ```
      
      ---
      
      ## ステップ 4:OpenClaw のインストール
      
      PATH をリフレッシュしてグローバルにインストールします:
      ```
      powershell -ExecutionPolicy Bypass -Command "$machinePath = [Environment]::GetEnvironmentVariable('PATH', 'Machine'); $userPath = [Environment]::GetEnvironmentVariable('PATH', 'User'); $env:Path = \"$machinePath;$userPath;$env:Path\"; npm install -g openclaw@latest"
      ```
      
      ---
      
      ## ステップ 5:インストールの検証
      
      ```
      powershell -ExecutionPolicy Bypass -Command "$machinePath = [Environment]::GetEnvironmentVariable('PATH', 'Machine'); $userPath = [Environment]::GetEnvironmentVariable('PATH', 'User'); $env:Path = \"$machinePath;$userPath;$env:Path\"; openclaw --version"
      ```
      
      ---
      
      ## ステップ 6:ゲートウェイのインストール
      
      ```
      openclaw gateway install
      ```
      
      ---
      
      ## ステップ 7:初期セットアップの自動完了
      
      `write_file` ツールを使用して設定ファイルを作成し、すべての設定(クイックスタートモード)を自動的に完了します:
      
      設定ファイルのパス:`%USERPROFILE%\.openclaw\config.yaml`
      
      設定ファイルの内容:
      ```yaml
      # OpenClaw 構成 — クイックスタートモード
      
      workspace:
        name: default
        directory: .
      
      gateway:
        mode: local
        auth:
          token: openclaw-quickstart-token
      
      session:
        scope: personal
        dmScope: per-channel
      
      channels:
        - type: tui
          enabled: true
      
      skills:
        enabled: false
      
      hooks:
        enabled: false
      
      security:
        acknowledged: true
        mode: personal
      
      ui:
        hatch: tui
      ```
      
      ファイル作成後に以下のコマンドを実行します:
      ```
      powershell -ExecutionPolicy Bypass -Command "[Environment]::SetEnvironmentVariable('OPENCLAW_GATEWAY_TOKEN', 'openclaw-quickstart-token', 'User')"
      ```
      
      ---
      
      ## ステップ 8:起動および利用
      
      ```
      # TUI インターフェイスを起動
      openclaw tui
      
      # またはステータスを確認
      openclaw status
      
      # ダッシュボード(ブラウザーで表示)
      # http://127.0.0.1:18789/
      ```
  4. インストールが完了するまで、Qwen Code がコマンドを実行できるように許可します。

  5. Qwen Code を終了するには、/exit を入力します。

    /exit

Coding Plan のセットアップ

  • OpenClaw を Simple Application Server 上にデプロイした場合は、GUI を使用して構成するための方法 2を使用します。

  • OpenClaw をローカルまたは Elastic Compute Service (ECS) 上にデプロイした場合は、AI エージェント(例:Qwen Code)によるガイダンスで構成するための方法 1を使用します。OpenClaw の構成に慣れている場合は、設定ファイルを直接編集する方法 3を使用します。

方法 1:Qwen Code のガイダンスによる構成

  1. Qwen Code のインストールおよび構成を行います。

  2. ターミナルから Qwen Code を起動します。

    qwen
  3. Qwen Code のチャットウィンドウに以下の指示を入力します。

    Coding Plan への接続用に OpenClaw を構成します:
    
    ## ステップ 1:API キーの取得
    ユーザーに次のメッセージを送信します:「Coding Plan の API キーを入力してください」。
    ユーザーからの返答を待ってから次に進みます。
    
    ## ステップ 2:設定ファイルの編集
    1. 設定ファイルを開きます:`~/.openclaw/openclaw.json`
       - ファイルが存在しない場合は新規作成します。
       - 重要:JSON 形式のみを使用します。
    
    2. 次のフィールドを検索または作成し、構成をマージします(既存の設定は保持します。不足しているフィールドは追加します):
       - 「mode」を「merge」に設定して、既存の設定を上書きしないようにします。
       - 「YOUR_API_KEY」をユーザーの実際の API キーに置き換えます。
    {
      "models": {
        "mode": "merge",
        "providers": {
          "bailian": {
            "baseUrl": "https://coding-intl.dashscope.aliyuncs.com/v1",
            "apiKey": "YOUR_API_KEY",
            "api": "openai-completions",
            "models": [
              {
                "id": "qwen3.5-plus",
                "name": "qwen3.5-plus",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-max-2026-01-23",
                "name": "qwen3-max-2026-01-23",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-coder-next",
                "name": "qwen3-coder-next",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536
              },
              {
                "id": "qwen3-coder-plus",
                "name": "qwen3-coder-plus",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536
              },
              {
                "id": "MiniMax-M2.5",
                "name": "MiniMax-M2.5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 196608,
                "maxTokens": 32768
              },
              {
                "id": "glm-5",
                "name": "glm-5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "glm-4.7",
                "name": "glm-4.7",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "kimi-k2.5",
                "name": "kimi-k2.5",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 32768,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              }
            ]
          }
        }
      },
      "agents": {
        "defaults": {
          "model": {
            "primary": "bailian/qwen3.5-plus"
          },
          "models": {
            "bailian/qwen3.5-plus": {},
            "bailian/qwen3-max-2026-01-23": {},
            "bailian/qwen3-coder-next": {},
            "bailian/qwen3-coder-plus": {},
            "bailian/MiniMax-M2.5": {},
            "bailian/glm-5": {},
            "bailian/glm-4.7": {},
            "bailian/kimi-k2.5": {}
          }
        }
      },
      "gateway": {
        "mode": "local"
      }
    } 
    3. ファイルを保存します。
    
    ## ステップ 3:再起動および検証
    1. `openclaw gateway restart` を実行してゲートウェイを再起動し、変更を適用します。
    2. `openclaw models list` を実行して構成を検証します:
       - 出力に「bailian/」で始まるモデルが含まれていることを確認します。
       - 各モデルに「configured」ラベルが表示されていることを確認します。
       - エラーメッセージに基づいてエラーを修正します。
  4. 構成が完了するまで、Qwen Code がコマンドを実行できるように許可します。

  5. 構成が完了すると、Qwen Code は openclaw models list コマンドの出力を表示します。bailian/qwen3.5-plus などのモデルのステータスが `構成済み` と表示された場合、構成は成功しています。

方法 2:GUI を使用した構成

OpenClaw を Simple Application Server を使用してデプロイした場合、GUI を使用して Coding Plan を構成できます。詳細については、「Simple Application Server における Coding Plan の構成」をご参照ください。

方法 3:設定ファイルの直接編集

ターミナルを使用した設定ファイルの編集

  1. 設定ファイルを開きます:

    nano ~/.openclaw/openclaw.json
  2. 初回セットアップの場合:以下の構成をファイルに貼り付けます。「YOUR_API_KEY」を Coding Plan の API キーに置き換えます。

    既存のセットアップの場合:既存の設定を保持するため、ファイル全体を置き換えないでください。「既存の構成を安全に変更する方法」をご参照ください。

    {
      "models": {
        "mode": "merge",
        "providers": {
          "bailian": {
            "baseUrl": "https://coding-intl.dashscope.aliyuncs.com/v1",
            "apiKey": "YOUR_API_KEY",
            "api": "openai-completions",
            "models": [
              {
                "id": "qwen3.5-plus",
                "name": "qwen3.5-plus",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-max-2026-01-23",
                "name": "qwen3-max-2026-01-23",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-coder-next",
                "name": "qwen3-coder-next",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536
              },
              {
                "id": "qwen3-coder-plus",
                "name": "qwen3-coder-plus",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536
              },
              {
                "id": "MiniMax-M2.5",
                "name": "MiniMax-M2.5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 196608,
                "maxTokens": 32768
              },
              {
                "id": "glm-5",
                "name": "glm-5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "glm-4.7",
                "name": "glm-4.7",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "kimi-k2.5",
                "name": "kimi-k2.5",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 32768,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              }
            ]
          }
        }
      },
      "agents": {
        "defaults": {
          "model": {
            "primary": "bailian/qwen3.5-plus"
          },
          "models": {
            "bailian/qwen3.5-plus": {},
            "bailian/qwen3-max-2026-01-23": {},
            "bailian/qwen3-coder-next": {},
            "bailian/qwen3-coder-plus": {},
            "bailian/MiniMax-M2.5": {},
            "bailian/glm-5": {},
            "bailian/glm-4.7": {},
            "bailian/kimi-k2.5": {}
          }
        }
      },
      "gateway": {
        "mode": "local"
      }
    }
  3. 保存して終了し、構成を適用します。

    openclaw gateway restart

Web ブラウザーを使用した設定ファイルの編集

  1. 以下のコマンドをターミナルで実行して、OpenClaw のインターフェイスを Web ブラウザーで自動的に開きます(通常は http://127.0.0.1/:xxxx)。このページでチャットおよび設定の構成が可能です。

    openclaw dashboard
  2. 左側のナビゲーションウィンドウで、Config > RAW(または Config > RAW)を選択します。

    1. 初回セットアップの場合:以下の構成を Raw JSON5 フィールドにコピーし、既存の内容をすべて置き換えます。

      既存のセットアップの場合:既存の設定を保持するため、ファイル全体を置き換えないでください。「既存の構成を安全に変更する方法」をご参照ください。

    2. YOUR_API_KEY を Coding Plan の API キーに置き換えます。

      image

    {
      "models": {
        "mode": "merge",
        "providers": {
          "bailian": {
            "baseUrl": "https://coding-intl.dashscope.aliyuncs.com/v1",
            "apiKey": "YOUR_API_KEY",
            "api": "openai-completions",
            "models": [
              {
                "id": "qwen3.5-plus",
                "name": "qwen3.5-plus",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-max-2026-01-23",
                "name": "qwen3-max-2026-01-23",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-coder-next",
                "name": "qwen3-coder-next",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536
              },
              {
                "id": "qwen3-coder-plus",
                "name": "qwen3-coder-plus",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536
              },
              {
                "id": "MiniMax-M2.5",
                "name": "MiniMax-M2.5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 196608,
                "maxTokens": 32768
              },
              {
                "id": "glm-5",
                "name": "glm-5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "glm-4.7",
                "name": "glm-4.7",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "kimi-k2.5",
                "name": "kimi-k2.5",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 32768,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              }
            ]
          }
        }
      },
      "agents": {
        "defaults": {
          "model": {
            "primary": "bailian/qwen3.5-plus"
          },
          "models": {
            "bailian/qwen3.5-plus": {},
            "bailian/qwen3-max-2026-01-23": {},
            "bailian/qwen3-coder-next": {},
            "bailian/qwen3-coder-plus": {},
            "bailian/MiniMax-M2.5": {},
            "bailian/glm-5": {},
            "bailian/glm-4.7": {},
            "bailian/kimi-k2.5": {}
          }
        }
      },
      "gateway": {
        "mode": "local"
      }
    }
  3. 右上隅の Save をクリックし、その後 Update をクリックして構成を適用します。

    保存後、API キーはセキュリティ上の理由からフロントエンド表示上で __OPENCLAW_REDACTED__ と表示されます。これはフロントエンド表示のみに影響し、実際の API 呼び出しには影響しません。

    image

OpenClaw の利用

OpenClaw は Web ブラウザーインターフェイスおよびターミナルインターフェイスの両方をサポートしています。

Web ブラウザー

  1. 新しいターミナルを開き、OpenClaw のダッシュボードを起動します。

    openclaw dashboard
  2. 会話を開始します。

    image

ターミナルコマンドライン

  1. 新しいターミナルを開き、以下のコマンドを実行します。

    openclaw tui
  2. 会話を開始します。

    image

一般的なコマンド

コマンド

説明

/help

利用可能なコマンドの概要を表示します。

/help

/status

現在のモデル、セッション、およびゲートウェイのステータス情報を表示します。

/status

/model <モデル名>

現在のセッションで使用するモデルを切り替えます。

/model qwen3.5-plus

/new

新しいセッションを開始します。

/new

/compact

会話履歴を圧縮してコンテキストウィンドウの空き容量を確保します。

/compact

/think <レベル>

推論の深さレベルを設定します。オプションは「無効」、「低」、「中」、および「高」です。

/think high

/skills

利用可能なすべてのスキルを表示します。

/skills

モデルの切り替え

  • 現在のセッションでのモデル切り替え(一時的)

    ターミナルで openclaw tui を実行して OpenClaw のターミナルインターフェイスを開きます。その後、/model <モデル名> を実行して、現在のセッションで使用するモデルを切り替えます。

    /model qwen3-coder-next
    「model set to qwen3-coder-next」というメッセージが表示されれば、変更が反映されています。
  • デフォルトモデルの変更(永続的)

    すべての新規セッションで使用されるデフォルトモデルを設定するには、agents.defaults.model.primary フィールドを更新します。「設定ファイルの編集」をご参照ください。

    {
        "agents": {
            "defaults": {
                "model": {
                    "primary": "bailian/qwen3.5-plus"
                }
            }
        }
    }

メッセージングチャネルの接続

Telegram

ステップ 1:Telegram ボットの構成

  1. BotFather を使用したボットの作成

    /newbot コマンドを送信し、プロンプトに従ってボットの名前とユーザー名を設定します。ユーザー名は bot で終わる必要があります。返されたボットトークン(形式:123456789:ABCdefGHIjklMNOpqrsTUVwxyz)をコピーして保存します。

    image

  2. OpenClaw のチャットで以下のコマンドを入力します。「xxxx」をご利用のボットトークンに置き換えます。OpenClaw が構成を自動的に完了します。

    Configure Telegram with these settings. My Bot Token is xxxx.
    {
      "channels": {
        "telegram": {
          "enabled": true,
          "botToken": "xxxx",
          "dmPolicy": "pairing"  
        }
      }
    }
  3. 構成が完了したら、ゲートウェイを再起動します。

    openclaw gateway restart
  4. Telegram でボットにメッセージを送信します。ボットがペアリングコードで返信します。

    image

  5. ターミナルで以下のコマンドを実行します。「xxx」をご利用のペアリングコードに置き換えます。

    openclaw pairing approve telegram xxx

ステップ 2:テスト

  1. ゲートウェイを再起動します。

    openclaw gateway restart
  2. Telegram チャネルのステータスを確認します:

    openclaw status

    Channels セクションで、Telegram チャネルが ON であり、そのステータスが OK であることを確認します。

  3. Telegram でメッセージを送信して構成をテストします。

    image

詳細情報

スキル

スキルは拡張可能な機能モジュールです。エージェントは、リクエストに基づいて適切なスキルを自動的に照合して読み込みます。OpenClaw を使用すると、組み込みスキルを表示および有効化したり、ClawHub からコミュニティスキルをインストールしたり、カスタムスキルを作成したりできます。

既存のスキルの表示

  1. 以下のコマンドを実行して、インストールされているスキルとそのステータスを表示します:

    # インストールされているスキルを一覧表示
    openclaw skills list
    
    # スキルのステータスを確認(有効、無効、依存関係の不足)
    openclaw skills check
    
    # 特定のスキルの詳細を表示
    openclaw skills info <スキル名>
  2. 組み込みスキルはデフォルトで無効になっています。これらを有効にするには、~/.openclaw/openclaw.json ファイルの skills.allowBundled 許可リストに追加します。許可リストに記載されているスキルのみが読み込まれます。

    {
      "skills": {
        "allowBundled": [
          "github",
          "weather",
          "summarize",
          "coding-agent",
          "clawhub",
          "nano-pdf",
          "google-web-search",
          "image-lab"
        ]
      }
    }

    一部の組み込みスキルにはサードパーティの API キーが必要です。これらのキーは、~/.openclaw/openclaw.json ファイルの skills.entries の下に構成できます。詳細については、「スキル構成ドキュメント」をご参照ください。

その他のスキルの検索

以下の方法で、その他のスキルを検索およびインストールできます:

  1. ClawHub を介した検索およびインストール

    ClawHub は 3,000 を超えるコミュニティスキルを提供しています。ウェブサイトで閲覧するか、コマンドラインを使用して検索できます。

    # キーワードで検索
    npx clawhub search [キーワード]
    
    # 最近更新されたスキルを探索
    npx clawhub explore

    適切なスキルが見つかったら、以下のコマンドを実行してインストールします。ゲートウェイを再起動してスキルをアクティブ化します。

    npx clawhub install <スキル名>
  2. OpenClaw で直接質問

    チャットでリクエストを記述します。たとえば、find a weather skill for me と入力します。OpenClaw はスキルを自動的に検索してインストールします。

カスタムスキルの作成

  1. スキルディレクトリを作成します。

    mkdir -p ~/.openclaw/workspace/skills/my-custom-skill
  2. ディレクトリ内に SKILL.md ファイルを作成します。このファイルは YAML フロントマターと Markdown 命令の 2 つの部分で構成されます。name および description フィールドは必須です。エージェントは description を使用してスキルを読み込むかどうかを決定します。説明が正確であることを確認してください。

    ---
    name: my-custom-skill
    description: Brief description
    ---
    
    # My Custom Skill
    
    When users request XXX, do the following:
    
    1. Run the xxx command using the bash tool
    2. Parse the output
    3. Return results to the user in table format
  3. ゲートウェイを再起動してスキルをアクティブ化します。

    # ゲートウェイを再起動
    openclaw gateway restart
    
    # スキルがアクティブであることを確認
    openclaw skills list

詳細については、「OpenClaw ドキュメント」をご参照ください。

よくある質問

Coding Plan 用に構成されたモデルを表示するにはどうすればよいですか?

ターミナルで openclaw tui を実行して OpenClaw のターミナルインターフェイスを開きます。その後、/model と入力して利用可能なモデルを一覧表示します。Enter キーを押してモデルを選択します。Esc キーを押してリストを終了します。

image

OpenClaw に「API rate limit reached」と表示されるのはなぜですか?

以下の手順でトラブルシューティングを行ってください:

  1. OpenClaw の構成エラー

    ベース URL またはモデルプロバイダーが誤って構成されている場合、リクエストが Coding Plan の専用チャネルをバイパスして汎用 API にルーティングされ、レート制限がトリガーされる可能性があります。

    • Coding Plan サブスクリプションを使用している場合は、OpenClaw 構成ファイルmodelsagents、および gateway セクション(ネストされたフィールドを含む)がドキュメントと一致していることを確認してください。たとえば、モデルサービスプロバイダーの構造は { "models": { "providers": { "bailian": {...} } } } である必要があります。

    • Coding Plan サブスクリプションを使用していない場合は、専用のクォータにアクセスするために Coding Plan にアップグレードしてください。

  2. サブスクリプションクォータの超過:Coding Plan ページでご利用状況を確認してください。

    • クォータが使い果たされている場合は、同じページで次回のリセット時刻を確認してください。

    • 頻繁に制限に達する場合は、より多くの呼び出しのために Pro プランにアップグレードしてください。

  3. API キーのリセット:上記のトラブルシューティング手順を完了しても問題が解決しない場合は、Coding Plan ページにアクセスして API キーをリセットしてください。

「HTTP 401: Incorrect API key provided.」または「No API key found for provider xxx」というエラーが表示されるのはなぜですか?

考えられる原因:

  1. ご利用の API キーが無効、期限切れ、空、形式が正しくない、またはエンドポイントと一致していない可能性があります。Coding Plan サブスクリプションに固有の API キーを使用していること、先頭または末尾のスペースなしでキー全体をコピーしていること、およびサブスクリプションがアクティブであることを確認してください。

  2. 古い構成キャッシュが原因である可能性があります。providers セクションを ~/.openclaw/agents/main/agent/models.json ファイルから削除し、OpenClaw を再起動してください。

DingTalk などの他のチャネルをすでに構成しています。既存の構成を失うことなく Coding Plan モデルを安全に追加するにはどうすればよいですか?

  • 完全な上書きは行わないでください。「すべて置換」オプションを使用すると、カスタム構成が上書きされます。代わりに部分的な変更を行ってください。

  • 以下のいずれかの方法を選択してください:

    • OpenClaw が正常に応答している場合は、OpenClaw のチャットに以下の指示を入力して構成をマージします。

    • OpenClaw が応答しない、またはモデルが構成されていない場合は、「Qwen Code ガイド付き構成」をご参照ください。

    指示(「YOUR_API_KEY」をご利用の API キーに置き換えます):

    Coding Plan への接続用に OpenClaw を構成します:
    1. 設定ファイルを開きます:`~/.openclaw/openclaw.json`
    2. 次のフィールドを検索または作成し、構成をマージします(既存の設定は保持します。不足しているフィールドは追加します):
    {
      "models": {
        "mode": "merge",
        "providers": {
          "bailian": {
            "baseUrl": "https://coding-intl.dashscope.aliyuncs.com/v1",
            "apiKey": "YOUR_API_KEY",
            "api": "openai-completions",
            "models": [
              {
                "id": "qwen3.5-plus",
                "name": "qwen3.5-plus",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-max-2026-01-23",
                "name": "qwen3-max-2026-01-23",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "qwen3-coder-next",
                "name": "qwen3-coder-next",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 65536
              },
              {
                "id": "qwen3-coder-plus",
                "name": "qwen3-coder-plus",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 1000000,
                "maxTokens": 65536
              },
              {
                "id": "MiniMax-M2.5",
                "name": "MiniMax-M2.5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 196608,
                "maxTokens": 32768
              },
              {
                "id": "glm-5",
                "name": "glm-5",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "glm-4.7",
                "name": "glm-4.7",
                "reasoning": false,
                "input": ["text"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 202752,
                "maxTokens": 16384,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              },
              {
                "id": "kimi-k2.5",
                "name": "kimi-k2.5",
                "reasoning": false,
                "input": ["text", "image"],
                "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 },
                "contextWindow": 262144,
                "maxTokens": 32768,
                "compat": {
                  "thinkingFormat": "qwen"
                }
              }
            ]
          }
        }
      },
      "agents": {
        "defaults": {
          "model": {
            "primary": "bailian/qwen3.5-plus"
          },
          "models": {
            "bailian/qwen3.5-plus": {},
            "bailian/qwen3-max-2026-01-23": {},
            "bailian/qwen3-coder-next": {},
            "bailian/qwen3-coder-plus": {},
            "bailian/MiniMax-M2.5": {},
            "bailian/glm-5": {},
            "bailian/glm-4.7": {},
            "bailian/kimi-k2.5": {}
          }
        }
      },
      "gateway": {
        "mode": "local"
      }
    } 
    3. 設定ファイルを保存します
    4. `openclaw gateway restart` を実行して OpenClaw ゲートウェイを再起動し、変更を適用します。
    構成が完了したら、新しい OpenClaw または Qwen Code セッションを開始し、openclaw models status コマンドを実行して構成を検証します。

    ゲートウェイを再起動すると、既存のセッションが応答しなくなる場合があります。これらのセッションは再起動する必要があります。

説明

Simple Application Server を使用して OpenClaw をインストールした場合は、グラフィカルユーザーインターフェイス(GUI)を使用して Coding Plan モデルを追加できます。詳細については、「Simple Application Server での Coding Plan の追加」をご参照ください。

詳細については、「よくある質問」をご参照ください。