NVIDIA NemoClaw の概要・インストール手順・できること

NemoClaw はオープンソースの AI アシスタント OpenClaw を、NVIDIA が提供する OpenShell のサンドボックス環境で安全に実行させるためのプラグインです。

1. NemoClaw が何をするか

2. Ubuntu(22.04 LTS 以降)へのインストール手順

2‑1. 必要な前提条件

  1. Ubuntu 22.04 + Docker(docker.io
  2. (GPU がある場合)NVIDIA ドライバと nvidia-docker2(Container Toolkit)
  3. Git、GitHub CLI(gh
  4. Node.js ≥ 20(スクリプトが自動で nvm により 22 をインストール)

2‑2. Docker の NVIDIA ランタイム設定(GPU がある場合)

# NVIDIA ランタイムを有効化
sudo nvidia-ctk runtime configure --runtime=docker

# Docker デーモンに cgroupns を host へ設定
sudo python3 -c "
import json, os
path = '/etc/docker/daemon.json'
d = json.load(open(path)) if os.path.exists(path) else {}
d['default-cgroupns-mode'] = 'host'
json.dump(d, open(path, 'w'), indent=2)
"
sudo systemctl restart docker

(上記は DGX Spark 用インストールガイドに記載)[5]

2‑3. OpenShell バイナリ取得とインストール

# GitHub CLI で NVIDIA 組織へ認証
gh auth login

# アーキテクチャ判定とバイナリ取得
ARCH=$(uname -m)
case "$ARCH" in
  x86_64|amd64) ARCH="x86_64" ;;
  aarch64|arm64) ARCH="aarch64" ;;
esac

gh release download --repo NVIDIA/OpenShell \
  --pattern "openshell-${ARCH}-unknown-linux-musl.tar.gz"
tar xzf openshell-${ARCH}-unknown-linux-musl.tar.gz
sudo install -m 755 openshell /usr/local/bin/openshell
rm -f openshell openshell-${ARCH}-unknown-linux-musl.tar.gz

インストール後は openshell --version でバージョン確認できます[6]

2‑4. NemoClaw 本体のインストール

方法①(最も簡単)

curl -fsSL https://nvidia.com/nemoclaw.sh | bash

このスクリプトは

(スクリプトの実装は nemoclaw.shinstall.sh を参照)[7]

方法②(手動)

# リポジトリ取得
git clone https://github.com/NVIDIA/NemoClaw.git
cd NemoClaw

# インストーラ実行
./install.sh          # もしくは `sudo npm install -g .`

2‑5. 初回オンボーディングウィザード

インストール完了後に自動で実行される nemoclaw onboard は次の 7 ステップでサンドボックスを構築します。

  1. ポリシー(Landlock + seccomp + netns)承認
  2. OpenClaw 本体のサンドボックスインストール
  3. 推論プロバイダ設定(ローカル Ollama があれば自動使用、無ければ Cloud API)
  4. サンドボックス名設定(例 my-assistant
  5. OpenShell ゲートウェイ起動
  6. Docker / OpenShell の事前チェック
  7. NVIDIA API キー貼り付け(nvapi-…

ウィザードの実行例は公式ドキュメントのスクリーンショットにあります[8]

2‑6. エージェントの起動と利用例

サンドボックスへ接続

# 接続(数秒でシェルに入る)
nemoclaw my-assistant connect

対話 TUI(チャット)

# サンドボックス内で
openclaw tui

1 行でクエリ実行(CLI)

# 例: 簡単な質問
openclaw agent --agent main --local -m "hello" --session-id test

Web ダッシュボード

オンボーディング完了時に表示される URL(例 http://localhost:18789/)にブラウザでアクセス、または openclaw dashboard で取得できます[9]

推論プロバイダの切替(例:120 B モデル)

openshell inference set --provider ollama-local --model nemotron-3-super:120b
# 設定確認
openshell inference get

設定変更は即時に反映されます[10]

監視・ログ取得

2‑7. 完全クリーンアップ

# サンドボックス・ゲートウェイ削除
openshell sandbox delete my-assistant
openshell gateway destroy -g nemoclaw

# npm パッケージ削除
sudo npm uninstall -g nemoclaw
rm -rf ~/.nemoclaw

削除確認は which nemoclawopenshell status で行えます[12]

3. NemoClaw が実現できること(主なユースケース)

カテゴリ具体例・機能備考
安全なサンドボックス OS レベルでファイル・ネットワーク・システムコールを制限(Landlock・seccomp・netns) ポリシー違反は自動ブロック[13]
ポリシーベース推論 クラウド NIM ↔ ローカル Ollama/NIM/vLLM へ安全にルーティング データガバナンスに適合
常時稼働 AI アシスタント 24 h エージェントがコード生成・ファイル操作・スケジュール管理を実行 永続メモリは /sandbox/.openclaw/workspace/memory
マルチチャネル統合 WhatsApp・Telegram・Discord・iMessage・Mattermost など 20+ チャネルを単一ゲートウェイで管理 OpenClaw の標準機能(チャネル一覧は公式 docs)[14]
メディア入出力 画像・音声・ドキュメントのアップ/ダウンロード、音声文字起こし OpenClaw の Media 機能[15]
ツール・プラグイン ブラウザ操作、カレンダー・連絡先管理、Cron・スケジューラ、音声・画像処理など OpenClaw の Tool 機構(プラグインで拡張)[15]
ローカル推論 (GPU/CPU) Ollama により nemotron-3-nano (30 B) か nemotron-3-super (120 B) をローカルで実行 GPU が無くても Cloud API がフォールバック
監査・ロギング リアルタイムターミナル、永続ログ、ポリシー違反の自動ブロックレポート OpenShell の TUI と NemoClaw ログコマンドで取得
スケールアウト k3s ベースのゲートウェイはコンテナ化され、DGX Station・DGX Spark だけでなくクラウド VM でも動作 DGX Spark 手順が参考になる[16]

4. まとめポイント

項目内容
インストール最短パスcurl -fsSL https://nvidia.com/nemoclaw.sh | bash
必須前提Ubuntu 22.04+, Docker, NVIDIA Container Toolkit (GPU がある場合), インターネット接続
セキュリティサンドボックス+ポリシーでホスト OS へ侵入不可
推論選択肢Cloud (NIM) ⇔ ローカル Ollama/NIM/vLLM(GPU があれば 120 B Model)
操作方法nemoclaw … connectopenclaw tui / CLI / Web Dashboard
管理nemoclaw … status / logsopenshell termopenshell inference set で柔軟に切替
削除openshell sandbox delete …openshell gateway destroy -g nemoclaw、npm アンインストール

5. 参考リンク(公式)


脚注・出典

  1. NemoClaw.run – Overview (sandbox and policy)
  2. NemoClaw.run – Cloud inference (Nemotron‑3 Super 120B)
  3. OpenClaw – 24 h personal AI assistant
  4. NemoClaw Quickstart – onboard wizard steps
  5. DGX Spark – Docker runtime configuration
  6. NemoClaw Developer Guide – OpenShell install
  7. nemoclaw.sh installer scriptinstall.sh
  8. NemoClaw – Quickstart (step‑by‑step)
  9. NemoClaw – Dashboard URL after onboarding
  10. Architecture – inference provider routing
  11. Architecture – sandbox & OpenShell TUI
  12. NemoClaw – Cleanup commands
  13. NemoClaw – sandbox policy details
  14. OpenClaw – Channels (WhatsApp, Telegram…)
  15. OpenClaw – Media & Tools (images, audio, plugins)
  16. DGX Spark – Full NemoClaw deployment guide