published at
|

NvidiaのAI投資縮小、軍事AI契約の攻防、Claude Codeの自律化と脆弱性


AI業界の権力構造が揺れている。NvidiaがOpenAIとAnthropicへの追加投資を事実上打ち切る姿勢を見せ、同時にAnthropicとOpenAIは米国防省のAI活用契約をめぐって公開対立に発展した。一方でGoogleやMeta、Microsoftら7社がトランプ政権と「電力コスト誓約」に署名するという異例の動きも起きている。ツール面ではClaude Codeにオートモードが登場する一方、重大な脆弱性が修正されたことも明らかになった。AIが実社会のインフラに深く組み込まれるほど、ガバナンスとセキュリティの問いは鋭くなっていく。

NvidiaがOpenAI・Anthropicへの追加投資を終了へ

ジェンセン・フアンNVIDIA CEOはモルガン・スタンレー主催のTech・Media・Telecom conferenceで、OpenAIとAnthropicへの投資はこれが最後になるだろうと発言した。表向きの理由は「両社のIPO後は投資機会がなくなる」というものだが、実態はより複雑だ。Nvidiaは2025年9月にOpenAIへ「最大1000億ドル投資」を発表していたが、先週完了した実際の出資額は300億ドルに縮小した。当初発表の3分の1だ。

MITスローンのMichael Cusumano教授が指摘するように、「NvidiaがOpenAIに出資し、OpenAIがNvidiaのチップを買う」という循環的な関係は「実質的に相殺される」側面がある。市場でもAIバブル懸念が高まっており、循環取引への批判を先取りした撤退とも読める。Nvidiaにとって本質的な収益源はチップ販売であり、投資ポートフォリオを増やす必然性は乏しい。

最大の要因はAnthropicとの関係悪化かもしれない。投資発表2ヶ月後にアモダイCEOが米中間の高性能AIチップ輸出を「核兵器を北朝鮮に売るようなもの」と発言。Nvidiaを名指しはしなかったが文脈は明白だった。加えてトランプ政権がAnthropicを連邦機関のAI利用禁止リストに追加したことで、政府関係を重視するNvidiaにとって追加投資はリスク要因になった。フアンCEOはAnthropicとの「仲違い」説を「nonsense」と否定しているが、数字は雄弁だ。

参考: TechCrunch AI - Jensen Huang says Nvidia is pulling back from OpenAI and Anthropic, but his explanation raises more questions than it answers

AnthropicとOpenAIの軍事AI契約をめぐる公開対立

米国防総省(DoD)はAnthropicとの新規AI契約交渉が決裂し、代わりにOpenAIと合意した。Anthropicはすでに2億ドルの軍との既存契約を持っていたが、DoDが「あらゆる合法的な利用」へのアクセスを要求したことに対して、自律型兵器や大規模国内監視への使用禁止を明示的に織り込むことを求め、折り合えなかった。

OpenAIはこの契約を引き受け、ブログポストで「国内大規模監視は合法的な利用に含まれず、その旨が契約に明示されている」と主張した。これに対してアモダイCEOは社内メモ(The Informationが報道)でOpenAIのメッセージを「straight up lies(真っ赤な嘘)」と断じた。「OpenAIが受け入れた主な理由は従業員の懸念を和らげることで、我々は実際に悪用を防ごうとした」という主張は、倫理的立場を軸にしたブランディング戦略の一環でもある。

市場の反応は明確だった。OpenAIの国防省契約発表後、ChatGPTのアンインストールが295%急増した。批評家は「法律は変わりうる」という本質的な問題も指摘しており、現時点での合法性は将来の利用を保証しない。アモダイが「このスピン/ガスライティングは一般市民やメディアにあまり効いていない」と評したのも、数字が示す通りだ。

参考: TechCrunch AI - Anthropic CEO Dario Amodei calls OpenAI’s messaging around military deal ‘straight up lies,’ report says

7大テック企業がデータセンター電力コスト誓約に署名

Google、Meta、Microsoft、Oracle、OpenAI、Amazon、xAIの7社のトップがホワイトハウスに集まり、「レートペイヤー保護誓約」に署名した。内容は「データセンターが必要とする電力と配電インフラのアップグレードコストを企業側が負担する」というものだ。

背景にある数字は深刻だ。米エネルギー省の推計によると、データセンターの電力需要は2028年までに現在の2〜3倍に増加する。2025年には全米の家庭電気代が13%上昇し(Climate Power調査)、「テック企業がデータセンターを建設すると電気代が上がる」というイメージが定着。地域コミュニティからの反対運動も増えていた。

誓約の実効性には留保がある。「場合によっては(where possible)」という文言が含まれており、企業は電力会社・州政府と個別に任意交渉が必要だ。トランプ大統領は「以前は反対されていたデータセンター建設が今後は歓迎されるだろう」と述べたが、誓約の実行なくしてそれは実現しない。テック企業がインフラコストを引き受けることで、規制圧力を先取りする戦略的な動きでもある。

参考: The Verge AI - Seven tech giants signed Trump’s pledge to keep electricity costs from spiking around data centers

Claude Codeに「オートモード」登場 ── 承認作業をAIが自動処理

AnthropicがClaude Codeに「Auto Mode」を追加することが、ユーザー向けの通知から明らかになった。3月12日(現地時間)以降にリサーチプレビューを提供する予定だ。

従来のAIコーディングでは、ファイル削除や外部コマンド実行など「人間の承認が必要なタスク」に達するたびに作業が一時停止する。これを迂回するために一部のユーザーが--dangerously-skip-permissionsオプションを使っていたが、名前が示す通り安全性に問題がある。Auto ModeはこのオプションよりもセキュアなAI主導の代替手段として設計されており、通常であれば人間の判断が必要な箇所をAIが自律的に処理することで長時間のタスクを中断なく継続できる。

プロンプトインジェクション対策も内蔵しているが、通常モードよりトークン消費量は増加する。Anthropicは外部から隔離された環境での利用を推奨しており、組織の管理者向けにOSまたはファイルベースでAuto Modeを無効化する設定手順も案内している。後述のセキュリティ問題と合わせて考えると、AIが自律的に権限承認を行う設計は慎重な運用が前提だと理解しておく必要がある。

参考: ITmedia AI+ - Claude Codeに「オートモード」登場 承認作業をAIで自動化

Claude Codeに重大な脆弱性 ── 設定ファイル経由でRCEとAPIキー流出

Check Point Researchが、AnthropicのAIコーディングアシスタント「Claude Code」に存在した重大な脆弱性「CVE-2025-59536」と「CVE-2026-21852」の調査結果を公開した。現在は修正済みだが、AI開発ツールのサプライチェーンリスクを改めて浮き彫りにした。

攻撃の仕組みはシンプルだ。悪意あるリポジトリをクローンし、Claude Codeで開くだけで攻撃が成立する。追加操作は不要だった。具体的な攻撃経路は3つある。まずHooks機能の悪用:セッション開始時に実行される処理を設定ファイルに仕込むことで、ツールを開いた瞬間に任意のシェルコマンドが実行される。次にMCPの同意フロー回避:外部ツール連携時の保護機能がリポジトリ側の設定で上書きされ、ユーザーの承認なしに処理が開始される。そしてAPIキー窃取:Anthropic APIとの通信を攻撃者のサーバにリダイレクトし、認証ヘッダを含む通信内容を取得する。

APIキー流出の影響は広範だ。AnthropicのWorkspaces機能では複数のAPIキーが同一プロジェクトを共有しており、1キーの漏洩でファイルの閲覧・改ざん・削除、不正なAPI利用による課金発生まで及ぶ。Anthropicは今回の報告を受け、信頼確認プロンプトの強化、承認前の外部ツール実行制限、信頼確認完了前のAPI通信遮断の3点を実装した。

参考: ITmedia AI+ - Claude Codeの重大な脆弱性を分析 開発者への3つの影響とは?

東大松尾研・さくらが医療特化日本語LLM、医師国家試験でo1を超える

東京大学の松尾・岩澤研究室、さくらインターネット、ELYZA、ABEJA、理化学研究所などの連携チームが、医療特化日本語LLM「Weblab-MedLLM-Qwen-2.5-109B-Instruct」を発表した。AlibabaのQwen-2.5-72B-Instructをベースに医療データで継続学習した1090億パラメータのモデルだ。

性能は数字で語る。2025年の医師国家試験正答率は93.3%で、OpenAIのo1(92.8%)、DeepSeek R1(91.5%)、GPT-4oを上回った。RAGと組み合わせると、図や計算問題を除き最大約98%まで向上するという。電子カルテの標準名称変換タスク(厚労省が定める標準名称に統一する作業)でもQwen-2.5-72B-InstructやGPT-4oを上回る性能を示した。日本の医療制度固有の知識を学習している点は、汎用グローバルモデルには再現が難しい強みだ。

現在は研究者向けに2026年3月5日から8月31日まで無償提供するが、診断・診療・治療行為への利用は不可。開発は政府の「戦略的イノベーション創造プログラム(SIP)」第3期の資金援助を受けており、官学連携で大型モデルの垂直特化を実現するモデルケースになっている。

参考: ITmedia AI+ - “医療特化”の日本語LLM開発、東大松尾研やさくらなど 研究者に無償提供

生成AIで9割が生産性向上を実感、でも日本で毎日使うのは6%

PwCのグローバル調査「希望と不安」2025版(48カ国・地域、約5万人対象)によると、業務で生成AIを日常的に活用している人の9割超が「生産性が向上した」と回答している。ところが日本で「生成AIを毎日使用している」と回答した従業員はわずか6%(グローバル14%)、「過去1年間に業務でAIを活用した」は35%(グローバル54%)にとどまる。

問題はAI活用率だけではない。「学習・能力開発のための十分なリソースがある」と感じている日本の従業員は20%台で、グローバルから大幅に劣後している。「組織の長期的な目標を理解している」という問いへの肯定率も、日本の経営幹部でさえ60%未満(グローバルは70%以上)で、非管理職では30%未満(グローバルは57%以下)だ。

「新しいアプローチを試すことに安全性を感じる(心理的安全性)」はグローバルで56%、日本ではわずか33%。PwCは「AI活用の遅れは技術の問題ではなく、心理的安全性の欠如・組織ビジョンの共有不足・学習環境の格差という複合的な組織課題が背景にある」と分析しており、リーダーによる積極的な働きかけが不可欠だと指摘する。

参考: ITmedia AI+ - 生成AIで9割が生産性向上を実感 なのに「毎日使う」はわずか6%

まとめ

今日のニュースを俯瞰すると、AI業界の「プラットフォーム覇権」と「責任の所在」をめぐる構造的な緊張が増している。Nvidia・OpenAI・Anthropicの投資関係が変化し、軍事AI利用の基準が問われ、データセンターの社会コストが政治問題化している。ツール面ではClaude Codeの自律化が進む一方で重大な脆弱性が露見した。医療や企業現場でのAI活用が本格化するほど、ガバナンスとセキュリティへの問いはより鋭くなるだろう。

Sources