「AIに社内データを渡したくない」問題への解答が来た
「ChatGPTに資料を貼り付けるとデータが学習に使われるのでは」「クラウドのAIに機密情報を入力するのが怖い」——AI活用を検討する企業や個人が直面する、この根本的な懸念に正面から向き合った製品が登場しました。
2026年3月16日、NVIDIAはGTC 2026カンファレンスでNemoClawとNemotron 3 Super 120Bを発表しました。これらは一言で言えば「自分のGPUで動かす、セキュアなAIエージェント基盤」です。
データを外部に送ることなく、ローカル環境で高性能なAIエージェントを動かせる——これは、プライバシーを重視する個人から、情報管理が厳しい医療・金融・法務業界まで、幅広い層にとって待望の選択肢です。この記事では、NemoClawとNemotron 3 Superの仕組みと使い方を、初心者にも分かるように解説します。
背景——なぜローカルAIエージェントが求められているか
クラウドAIのジレンマ
ChatGPT、Claude、Geminiといったクラウド型AIは非常に高性能ですが、共通の課題があります。
- データ送信リスク: プロンプトとして入力した情報は、サービス提供者のサーバーに送られる
- コンプライアンス上の問題: 医療情報・個人情報・企業秘密をクラウドに送ることが禁止されているケースがある
- インターネット依存: オフライン環境や閉鎖ネットワーク内では使えない
- ランニングコスト: 高頻度で大量のトークンを処理すると月額コストが跳ね上がる
こうした問題を解決する「ローカルLLM」はOllamaやLM Studioなどで一定普及してきましたが、エージェント(自律的に行動するAI)として安全に動かすためのセキュリティ基盤が不足していました。
NVIDIAはこのギャップを埋めるために、エージェント専用のセキュアランタイム「OpenShell」と、それを活用するスタック「NemoClaw」を開発したのです。
NemoClawとは——3つの核心コンポーネント
NemoClawは「OpenClawをNVIDIAデバイス上でより安全に実行するためのオープンソース参照スタック」と定義されています。3つの主要コンポーネントで構成されています。
コンポーネント1: Nemotronローカルモデル
NemoClawに組み込まれるオープンモデルがNemotron 3シリーズです。
| モデル | パラメータ | 活性パラメータ | 用途 |
|---|---|---|---|
| Nemotron 3 Nano 4B | 40億 | 40億 | 軽量デバイス向け、高速処理 |
| Nemotron 3 Super 120B | 1,200億 | 120億(MoE) | 複雑なエージェントタスク向け |
Nemotron 3 Super 120Bは、全体パラメータ数は1,200億ありますが、推論時に実際に使われるのは12億パラメータ(MoE:Mixture of Experts構造)です。そのため、理論上のモデルサイズほどのGPUメモリを必要とせず、RTX 4090クラスのコンシューマGPUでも動作が可能です。
ベンチマーク「PinchBench」(AIエージェントのOpenClaw操作評価)では85.6%を記録し、同クラスのオープンモデルでトップを獲得しています。また1Mトークンのコンテキストウィンドウを持ち、長期的な文脈を保ちながらタスクを実行できます。
コンポーネント2: OpenShell(セキュアランタイム)
OpenShellはAIエージェント(「Claw」と呼ばれる)を隔離した環境で実行するオープンソースセキュリティランタイムです。
具体的には以下のような保護を提供します。
サンドボックス実行
各Clawは独立したDockerコンテナ内で実行されます。エージェントがシステムファイルを勝手に読み書きしたり、外部にデータを送信したりすることを、コンテナレベルで防止します。
YAMLポリシーによる権限管理
管理者はYAMLファイルで各エージェントに許可するアクションを細かく定義できます。
# policy.yaml の例
network:
outbound:
default: deny # デフォルトは全通信ブロック
allowed_domains:
- "api.company-internal.com" # 社内APIのみ許可
filesystem:
read_allowed:
- "/data/reports/" # 特定フォルダのみ読み取り許可
write_allowed:
- "/data/output/"
プライバシールーター
機密データを含む処理はローカルのNemotronモデルで実行し、公開情報の複雑な推論はクラウドモデルに送るという「仕分け」を自動で行います。これにより、セキュリティとパフォーマンスの両立を図ります。
ネットワーク遮断(デフォルトDeny)
デフォルトでは全アウトバウンド通信がブロックされます。エージェントが外部に接続しようとすると、OpenShellのターミナルUIに通知が来て、管理者がリアルタイムで承認・拒否できます。
コンポーネント3: Agent Toolkit(統合管理)
NVIDIAのAgent Toolkitの一部として位置づけられるNemoClawは、複数のClawエージェントを統合管理するためのダッシュボード・ログ管理・権限設定UIを提供します。
OpenClawとは——NemoClawの前提知識
NemoClawを理解するには、その基盤となるOpenClawを知る必要があります。
OpenClawはオープンソースのAIエージェントプラットフォームです。「Claw(クロー)」と呼ばれる自律型エージェントを作成・実行・管理するフレームワークで、以下のような特徴があります。
- 常駐型エージェント(always-on assistant)として動作
- ファイル操作・API呼び出し・ウェブ検索などのツールを使える
- 複数のエージェントを協調させて複雑なタスクを実行
- 自然言語による指示でエージェントを操作
NemoClawはこのOpenClawをNVIDIAハードウェア上でよりセキュアに動かすための拡張です。
対応ハードウェア——どのGPUが必要か
NemoClawは以下のNVIDIAハードウェアで動作します。
| ハードウェア | 用途 | Nemotron 3 Super対応 |
|---|---|---|
| GeForce RTX 40シリーズ(PC) | 個人・開発者向け | ○(4090推奨) |
| GeForce RTX 50シリーズ(PC) | 次世代個人向け | ○ |
| RTX PRO ワークステーション | プロフェッショナル向け | ○ |
| DGX Spark | AI専用コンパクト筐体 | ○(最適) |
| DGX Station | エンタープライズ向け | ○(最適) |
Nemotron 3 Super 120BをローカルでフルMoE動作させるには、RTX 4090(VRAM 24GB)以上のGPUが推奨されます。Nano 4BであればRTX 4060クラスでも動作可能です。
セットアップ手順——ローカルAIエージェントを動かすまで
NemoClawは2026年3月時点でアルファ版のため、セットアップには技術的な知識が必要です。以下は基本的な手順です。
前提条件
- NVIDIA GPU搭載PC(上記対応ハードウェア)
- CUDA 12.4以上
- Docker(OpenShellの実行に必要)
- Python 3.11以上
ステップ1: NemoClawのインストール
# NemoClawリポジトリをクローン
git clone https://github.com/NVIDIA/NemoClaw.git
cd NemoClaw
# 依存パッケージのインストール
pip install -r requirements.txt
# OpenShellランタイムのセットアップ
./scripts/install-openshell.sh
ステップ2: Nemotronモデルのダウンロード
# Nemotron 3 Super 120B(約80GB)のダウンロード
# HuggingFaceからダウンロードまたはNVIDIA NGCから取得
python download_model.py --model nemotron-3-super-120b
# または軽量版のNano 4B(約3GB)
python download_model.py --model nemotron-3-nano-4b
ステップ3: ポリシーファイルの設定
config/policy.yamlを編集して、エージェントに許可するアクションを定義します。
nemoclaw_policy:
version: "1.0"
model: "nemotron-3-super-120b"
network:
outbound:
default: deny
allowed_domains: [] # 必要なドメインを追加
filesystem:
read_allowed:
- "./workspace/"
write_allowed:
- "./workspace/output/"
privacy_router:
local_model: "nemotron-3-super-120b"
cloud_fallback: null # null=クラウド送信なし(完全ローカル)
ステップ4: エージェントを起動する
# NemoClawを起動
python -m nemoclaw run --config config/policy.yaml
# OpenShell TUIが起動し、エージェントとの対話が始まります
基本的なエージェントへの指示例
# ローカルファイルの要約
> ./workspace/contract.pdf を要約して、重要なポイントを箇条書きにして
# コード生成
> workspace/ のPythonファイルを全部確認して、型アノテーションが欠けている関数を修正して
# データ分析
> workspace/sales_2026Q1.csv を読み込んで、月別・カテゴリ別の売上集計をして
プライバシールーターの活用——何をローカルで、何をクラウドで
NemoClawのプライバシールーターは、タスクの性質に応じて処理先を自動判断します。
| タスクの性質 | 処理先 | 理由 |
|---|---|---|
| 社内文書の要約・抽出 | ローカルNemotron | 機密データを外部に送らない |
| 社内コードのリファクタリング | ローカルNemotron | ソースコードを保護 |
| 公開情報を使った複雑な推論 | クラウドモデル(任意) | より高性能な処理が必要な場合 |
| ウェブ検索を伴う調査 | クラウド経由(許可設定要) | インターネットアクセスが必要 |
privacy_router設定でcloud_fallback: nullにすると、すべてのタスクがローカルのみで処理されます。完全オフライン・完全プライベートな運用が必要な場合はこの設定が適切です。
実際のユースケース
ユースケース1: 法律事務所の文書処理
機密性の高い契約書や判例資料をAIで処理したいが、クラウドに送れない——そういった法律事務所にとって、NemoClawは理想的な選択肢です。ローカルで全処理が完結するため、弁護士秘密特権(アドボカシー)の問題が生じません。
ユースケース2: 医療機関での診療補助
患者の電子カルテをAIで分析・要約したいが、個人情報保護法(APPI)・HIPAA等の観点からクラウド送信できない医療機関。ローカルGPUサーバーにNemoClawを設置することで、規制に準拠したAI活用が実現します。
ユースケース3: 製造業の設計レビュー
未公開の製品設計図や特許申請前の技術資料をAIでレビューさせたい場合。クラウドに送れば競合他社に情報が漏れるリスクがあるため、ローカルAIが唯一の選択肢になります。
ユースケース4: 個人開発者のプライバシー保護
自作プロジェクトのコードを、月額コストなしでAIにレビューさせたい個人開発者。GPUを一度購入すれば、以降はトークンコストゼロで高性能なコードレビューが可能です。
それでも懸念があるあなたへ
NemoClawに対する率直な懸念点も整理します。
懸念1: まだアルファ版では?
その通りです。2026年3月時点でNemoClawはアルファ段階です。NVIDIAも「本番環境での使用は非推奨」と明示しています。現時点では評価・実験・開発目的での利用にとどめ、本番への適用は安定版リリースを待つことを強くすすめます。
懸念2: 高性能なGPUを用意するのはコストが高い
RTX 4090は国内で20〜25万円程度です。月額のAPIコストと比較すると、大量処理を続ける場合は2〜3年で回収できる計算になります。ただし、まず試すだけならDGX SparkをNVIDIAのクラウドから使う選択肢もあります。
懸念3: Nemotron 3 SuperはGPT-4レベルの性能があるのか?
PinchBenchでのスコアは優秀ですが、汎用的な創作・文章生成ではGPT-4o・Claude Opus 4.6には現時点では及ばない評価が多いです。エージェントとしての「タスク実行・自律操作」能力に特化したモデルと理解するのが正確です。
懸念4: セキュリティは本当に担保されているか?
OpenShellのサンドボックスはDockerベースであり、Dockerの既知の脆弱性(コンテナ脱出等)のリスクが潜在的にあります。アルファ版のため独立した第三者セキュリティ監査も実施されていません。金融・医療などの規制産業では、安定版リリース後のセキュリティ評価を経てから採用を検討すべきです。
よくある質問
Q. NemoClawはWindows・Macでも動きますか?
公式対応はNVIDIA GPUを搭載したLinux/Windowsです。非公式のリポジトリ(github.com/nvidia-nemoclaw/NemoClaw)ではmacOSへの対応も試みられていますが、NVIDIA GPUを持たないMacでは大幅な制限があります。本格利用はNVIDIA GPU搭載のWindows/Linuxマシンが前提です。
Q. インターネット接続なしで動きますか?
はい。プライバシールーターでcloud_fallback: nullに設定し、Nemotronモデルを事前にダウンロードしておけば、完全オフライン環境での動作が可能です。
Q. APIキーやサブスクリプションは必要ですか?
ローカルモデル(Nemotron 3 Super/Nano)を使う場合、サブスクリプション費用はかかりません。プライバシールーターでクラウドAPIを使う場合のみ、対応するAPIキー(OpenAI・Anthropic等)が別途必要です。
Q. Nemotron 3 Super 120Bのモデルはどこからダウンロードできますか?
NVIDIA NGC(NVIDIA GPU Cloud)または HuggingFace(NVIDIA公式アカウント)から入手できます。MoEアーキテクチャのため、実際のダウンロードサイズは約80GBとなります。
Q. 他のローカルLLMツール(Ollama等)と何が違うのか?
Ollamaはモデルをローカルで動かすランタイムですが、エージェントとして自律実行させる際のセキュリティ制御機能(サンドボックス・ポリシー管理・ネットワーク制御)は持っていません。NemoClawはエージェント特有のセキュリティリスクに特化した追加レイヤーです。Ollamaと組み合わせることも技術的には可能です。
関連記事
- AIエージェントとは?初心者でもわかる自律型AIの仕組みと使い方
- MCPとは?初心者でもわかるAIエージェント拡張の仕組みと使い方
- AIエージェントとMCPの組み合わせ活用事例|自動化できる10の業務
- AIで仕事を効率化する方法|業務別おすすめAIツール完全ガイド
まとめ——「データを渡さずAIを使う」選択肢が現実になった
NVIDIAのNemoClaw&Nemotron 3 Superは、ローカルAIエージェントを「実験」から「実用」へと近づけた重要な一歩です。
今回のポイントを整理します。
- NemoClawはOpenClawエージェントをNVIDIA GPUでセキュアに動かすオープンソーススタック
- Nemotron 3 Super 120BはMoE構造で実活性パラメータ12億、RTX 4090クラスで動作可能
- OpenShellがサンドボックス・ネットワーク制御・ポリシー管理を提供し、エージェントの暴走を防止
- データをクラウドに送らずにAIエージェントを運用できるため、機密情報の取り扱いに適する
- 2026年3月時点でアルファ版。本番利用は安定版リリースを待つことを推奨
次のアクションとして、まずNVIDIA NemoClawのGitHubリポジトリを確認し、お手持ちのGPU環境で試せるかを確認してみてください。RTX 4090がなくてもNano 4Bモデルなら4060クラスから試せます。アルファ版の今フィードバックを送ることで、製品の方向性に貢献できる段階でもあります。
出典・参考情報
– GTC Spotlights NVIDIA RTX PCs and DGX Sparks Running Latest Open Models and AI Agents Locally | NVIDIA Blog
– NVIDIA Announces NemoClaw for the OpenClaw Community | NVIDIA Newsroom
– Introducing Nemotron 3 Super: An Open Hybrid Mamba-Transformer MoE for Agentic Reasoning | NVIDIA Technical Blog
– Nvidia lets its ‘claws’ out: NemoClaw brings security, scale to the agent platform | VentureBeat
– Overview — NVIDIA NemoClaw Developer Guide


コメント