Standard | Biz Tech
Quick Deep Dive
NvidiaのAI投資縮小、軍事AI契約の攻防、Claude Codeの自律化と脆弱性 AI業界の権力構造が揺れている。NvidiaがOpenAIとAnthropicへの追加投資を事実上打ち切る姿勢を見せ、同時にAnthropicとOpenAIは米国防省のAI活用契約をめぐって公開対立に発展した。一方でGoogleやMeta、Microsoftら7社がトランプ政権と「電力コスト誓約」に署名するという異例の動きも起きている。ツール面ではClaude Codeにオートモードが登場する一方、重大な脆弱性が修正されたことも明らかになった。AIが実社会のインフラに深く組み込まれるほど、ガバナンスとセキュリティの問いは鋭くなっていく。
NvidiaがOpenAI・Anthropicへの追加投資を終了へ
ジェンセン・フアンNVIDIA CEOはモルガン・スタンレー主催のTech・Media・Telecom conferenceで、OpenAIとAnthropicへの投資はこれが最後になるだろうと発言した。表向きの理由は「両社のIPO後は投資機会がなくなる」というものだが、実態はより複雑だ。Nvidiaは2025年9月にOpenAIへ「最大1000億ドル投資」を発表していたが、先週完了した実際の出資額は300億ドルに縮小した。当初発表の3分の1だ。
MITスローンのMichael Cusumano教授が指摘するように、「NvidiaがOpenAIに出資し、OpenAIがNvidiaのチップを買う」という循環的な関係は「実質的に相殺される」側面がある。市場でもAIバブル懸念が高まっており、循環取引への批判を先取りした撤退とも読める。Nvidiaにとって本質的な収益源はチップ販売であり、投資ポートフォリオを増やす必然性は乏しい。
最大の要因はAnthropicとの関係悪化かもしれない。投資発表2ヶ月後にアモダイCEOが米中間の高性能AIチップ輸出を「核兵器を北朝鮮に売るようなもの」と発言。Nvidiaを名指しはしなかったが文脈は明白だった。加えてトランプ政権がAnthropicを連邦機関のAI利用禁止リストに追加したことで、政府関係を重視するNvidiaにとって追加投資はリスク要因になった。フアンCEOはAnthropicとの「仲違い」説を「nonsense」と否定しているが、数字は雄弁だ。
参考: TechCrunch AI - Jensen Huang says Nvidia is pulling back from OpenAI and Anthropic, but his explanation raises more questions than it answers
AnthropicとOpenAIの軍事AI契約をめぐる公開対立
米国防総省(DoD)はAnthropicとの新規AI契約交渉が決裂し、代わりにOpenAIと合意した。Anthropicはすでに2億ドルの軍との既存契約を持っていたが、DoDが「あらゆる合法的な利用」へのアクセスを要求したことに対して、自律型兵器や大規模国内監視への使用禁止を明示的に織り込むことを求め、折り合えなかった。
OpenAIはこの契約を引き受け、ブログポストで「国内大規模監視は合法的な利用に含まれず、その旨が契約に明示されている」と主張した。これに対してアモダイCEOは社内メモ(The Informationが報道)でOpenAIのメッセージを「straight up lies(真っ赤な嘘)」と断じた。「OpenAIが受け入れた主な理由は従業員の懸念を和らげることで、我々は実際に悪用を防ごうとした」という主張は、倫理的立場を軸にしたブランディング戦略の一環でもある。
市場の反応は明確だった。OpenAIの国防省契約発表後、ChatGPTのアンインストールが295%急増した。批評家は「法律は変わりうる」という本質的な問題も指摘しており、現時点での合法性は将来の利用を保証しない。アモダイが「このスピン/ガスライティングは一般市民やメディアにあまり効いていない」と評したのも、数字が示す通りだ。
参考: TechCrunch AI - Anthropic CEO Dario Amodei calls OpenAI’s messaging around military deal ‘straight up lies,’ report says
7大テック企業がデータセンター電力コスト誓約に署名
Google、Meta、Microsoft、Oracle、OpenAI、Amazon、xAIの7社のトップがホワイトハウスに集まり、「レートペイヤー保護誓約」に署名した。内容は「データセンターが必要とする電力と配電インフラのアップグレードコストを企業側が負担する」というものだ。
背景にある数字は深刻だ。米エネルギー省の推計によると、データセンターの電力需要は2028年までに現在の2〜3倍に増加する。2025年には全米の家庭電気代が13%上昇し(Climate Power調査)、「テック企業がデータセンターを建設すると電気代が上がる」というイメージが定着。地域コミュニティからの反対運動も増えていた。
誓約の実効性には留保がある。「場合によっては(where possible)」という文言が含まれており、企業は電力会社・州政府と個別に任意交渉が必要だ。トランプ大統領は「以前は反対されていたデータセンター建設が今後は歓迎されるだろう」と述べたが、誓約の実行なくしてそれは実現しない。テック企業がインフラコストを引き受けることで、規制圧力を先取りする戦略的な動きでもある。
参考: The Verge AI - Seven tech giants signed Trump’s pledge to keep electricity costs from spiking around data centers
Claude Codeに「オートモード」登場 ── 承認作業をAIが自動処理
AnthropicがClaude Codeに「Auto Mode」を追加することが、ユーザー向けの通知から明らかになった。3月12日(現地時間)以降にリサーチプレビューを提供する予定だ。
従来のAIコーディングでは、ファイル削除や外部コマンド実行など「人間の承認が必要なタスク」に達するたびに作業が一時停止する。これを迂回するために一部のユーザーが--dangerously-skip-permissionsオプションを使っていたが、名前が示す通り安全性に問題がある。Auto ModeはこのオプションよりもセキュアなAI主導の代替手段として設計されており、通常であれば人間の判断が必要な箇所をAIが自律的に処理することで長時間のタスクを中断なく継続できる。
プロンプトインジェクション対策も内蔵しているが、通常モードよりトークン消費量は増加する。Anthropicは外部から隔離された環境での利用を推奨しており、組織の管理者向けにOSまたはファイルベースでAuto Modeを無効化する設定手順も案内している。後述のセキュリティ問題と合わせて考えると、AIが自律的に権限承認を行う設計は慎重な運用が前提だと理解しておく必要がある。
参考: ITmedia AI+ - Claude Codeに「オートモード」登場 承認作業をAIで自動化
Claude Codeに重大な脆弱性 ── 設定ファイル経由でRCEとAPIキー流出
Check Point Researchが、AnthropicのAIコーディングアシスタント「Claude Code」に存在した重大な脆弱性「CVE-2025-59536」と「CVE-2026-21852」の調査結果を公開した。現在は修正済みだが、AI開発ツールのサプライチェーンリスクを改めて浮き彫りにした。
攻撃の仕組みはシンプルだ。悪意あるリポジトリをクローンし、Claude Codeで開くだけで攻撃が成立する。追加操作は不要だった。具体的な攻撃経路は3つある。まずHooks機能の悪用 :セッション開始時に実行される処理を設定ファイルに仕込むことで、ツールを開いた瞬間に任意のシェルコマンドが実行される。次にMCPの同意フロー回避 :外部ツール連携時の保護機能がリポジトリ側の設定で上書きされ、ユーザーの承認なしに処理が開始される。そしてAPIキー窃取 :Anthropic APIとの通信を攻撃者のサーバにリダイレクトし、認証ヘッダを含む通信内容を取得する。
APIキー流出の影響は広範だ。AnthropicのWorkspaces機能では複数のAPIキーが同一プロジェクトを共有しており、1キーの漏洩でファイルの閲覧・改ざん・削除、不正なAPI利用による課金発生まで及ぶ。Anthropicは今回の報告を受け、信頼確認プロンプトの強化、承認前の外部ツール実行制限、信頼確認完了前のAPI通信遮断の3点を実装した。
参考: ITmedia AI+ - Claude Codeの重大な脆弱性を分析 開発者への3つの影響とは?
東大松尾研・さくらが医療特化日本語LLM、医師国家試験でo1を超える
東京大学の松尾・岩澤研究室、さくらインターネット、ELYZA、ABEJA、理化学研究所などの連携チームが、医療特化日本語LLM「Weblab-MedLLM-Qwen-2.5-109B-Instruct」を発表した。AlibabaのQwen-2.5-72B-Instructをベースに医療データで継続学習した1090億パラメータのモデルだ。
性能は数字で語る。2025年の医師国家試験正答率は93.3%で、OpenAIのo1(92.8%)、DeepSeek R1(91.5%)、GPT-4oを上回った。RAGと組み合わせると、図や計算問題を除き最大約98%まで向上するという。電子カルテの標準名称変換タスク(厚労省が定める標準名称に統一する作業)でもQwen-2.5-72B-InstructやGPT-4oを上回る性能を示した。日本の医療制度固有の知識を学習している点は、汎用グローバルモデルには再現が難しい強みだ。
現在は研究者向けに2026年3月5日から8月31日まで無償提供するが、診断・診療・治療行為への利用は不可。開発は政府の「戦略的イノベーション創造プログラム(SIP)」第3期の資金援助を受けており、官学連携で大型モデルの垂直特化を実現するモデルケースになっている。
参考: ITmedia AI+ - “医療特化”の日本語LLM開発、東大松尾研やさくらなど 研究者に無償提供
生成AIで9割が生産性向上を実感、でも日本で毎日使うのは6%
PwCのグローバル調査「希望と不安」2025版(48カ国・地域、約5万人対象)によると、業務で生成AIを日常的に活用している人の9割超が「生産性が向上した」と回答している。ところが日本で「生成AIを毎日使用している」と回答した従業員はわずか6%(グローバル14%)、「過去1年間に業務でAIを活用した」は35%(グローバル54%)にとどまる。
問題はAI活用率だけではない。「学習・能力開発のための十分なリソースがある」と感じている日本の従業員は20%台で、グローバルから大幅に劣後している。「組織の長期的な目標を理解している」という問いへの肯定率も、日本の経営幹部でさえ60%未満(グローバルは70%以上)で、非管理職では30%未満(グローバルは57%以下)だ。
「新しいアプローチを試すことに安全性を感じる(心理的安全性)」はグローバルで56%、日本ではわずか33%。PwCは「AI活用の遅れは技術の問題ではなく、心理的安全性の欠如・組織ビジョンの共有不足・学習環境の格差という複合的な組織課題が背景にある」と分析しており、リーダーによる積極的な働きかけが不可欠だと指摘する。
参考: ITmedia AI+ - 生成AIで9割が生産性向上を実感 なのに「毎日使う」はわずか6%
まとめ
今日のニュースを俯瞰すると、AI業界の「プラットフォーム覇権」と「責任の所在」をめぐる構造的な緊張が増している。Nvidia・OpenAI・Anthropicの投資関係が変化し、軍事AI利用の基準が問われ、データセンターの社会コストが政治問題化している。ツール面ではClaude Codeの自律化が進む一方で重大な脆弱性が露見した。医療や企業現場でのAI活用が本格化するほど、ガバナンスとセキュリティへの問いはより鋭くなるだろう。
AI業界の権力再編を全解析 ── Nvidia撤退・軍事契約・電力誓約・医療LLMの台頭 今回のニュースはAI産業のパワーシフトを示す複数のシグナルが重なった。Nvidiaというチップ覇者がAI企業への直接投資から手を引き、OpenAIとAnthropicが公開対立し、7大テック企業が政府と電力問題で手打ちを図った。各イベントは表面上は独立しているが、「誰がAIエコシステムの主導権を握るか」という一本の軸で繋がっている。
Nvidiaの投資縮小が示す業界構造の変化
2025年9月、NvidiaはOpenAIへの「最大1000億ドル投資」を発表したが、2026年2月に完了した実際の出資額は300億ドルにとどまった。Anthropicへの100億ドル投資も先行きが不透明だ。ジェンセン・フアンCEOはモルガン・スタンレー主催のカンファレンスで「両社がIPOすれば投資機会は閉じる」と述べ、追加投資を事実上否定した。
この「縮小」には複数の要因が絡む。第一に循環投資問題だ。MITスローンのMichael Cusumano教授は「NvidiaがOpenAIに出資し、OpenAIがNvidiaのチップを買う構図は相殺し合う」と指摘していた。AIバブル懸念が高まる市場で、循環取引への批判を先取りした可能性がある。
第二にAnthropicとの関係悪化だ。投資発表2ヶ月後にAnthropicのアモダイCEOが米中間のAIチップ輸出を「核兵器を北朝鮮に売るようなもの」と発言。Nvidiaを名指しはしなかったが文脈は明白だった。加えてトランプ政権がAnthropicを連邦機関のAI利用禁止リストに追加したことで、政府関係を重視するNvidiaにとって追加投資はリスク要因になった。
戦略的示唆:Nvidiaは「エコシステム拡大」を投資目的に掲げており、今後は中小AIスタートアップへの出資を増やす可能性がある。同社のエコシステム資金がどこへ向かうかは、次世代AIスタートアップの投資環境を左右する。
参考: TechCrunch AI - Jensen Huang says Nvidia is pulling back from OpenAI and Anthropic
OpenAI vs Anthropic ── 軍事AI契約をめぐる戦略的divergence
米国防総省(DoD)は2026年2月末、Anthropicとの新規AI契約交渉が決裂し、OpenAIと合意した。Anthropicはすでに2億ドルの軍との契約を持っていたが、DoDが「あらゆる合法的な利用」へのアクセスを要求したことに対して、自律型兵器や大規模国内監視への使用禁止を明文化することを求め、交渉が決裂した。
OpenAIはこの契約を引き受け、ブログポストで「国内大規模監視は合法的な利用に含まれず、その旨が契約に明示されている」と主張した。しかしAnthropicのアモダイCEOはこれを「straight up lies」と断じ、社内メモをThe Informationが報道。「OpenAIが受け入れた主な理由は従業員の懸念を和らげることで、我々は実際に悪用を防ごうとした」と述べた。批評家は「法律は変わりうる」という本質的な問題も指摘している。
市場の反応は冷淡だった。OpenAIの契約発表後、ChatGPTのアンインストールが295%急増した。2つのビジネスモデルが競合している。Anthropicは「Constitutional AI」という安全原則を軸にブランドを構築し、政府案件を失うリスクを取った。OpenAIは柔軟な対応で政府収益を確保したが、ブランド毀損というコストを負った。軍事AIは今や政治リスクを持つ市場であり、参入企業には覚悟の上での選択が求められる。
参考: TechCrunch AI - Anthropic CEO Dario Amodei calls OpenAI’s messaging around military deal ‘straight up lies’
7大テックの電力誓約 ── AIインフラの社会コスト問題が政治化
Google、Meta、Microsoft、Oracle、OpenAI、Amazon、xAIの7社のCEOがホワイトハウスに集まり、「レートペイヤー保護誓約」に署名した。「データセンターの電力需要と配電インフラのアップグレードコストを企業が負担する」という内容だ。
数字の規模を整理する。米エネルギー省はデータセンターの電力需要が2028年までに現在の2〜3倍になると試算している。2025年には全米の家庭電気代が13%上昇し(Climate Power調査)、データセンターとの因果関係を訴える声が高まっていた。地域コミュニティからのデータセンター建設反対運動も増え、テック企業は「電気代泥棒」というイメージを払拭する必要に迫られた。
誓約の実効性には留保がある。「場合によっては(where possible)」という文言が含まれており、企業は電力会社・州政府と個別に任意交渉が必要だ。法的拘束力の程度は不明確だ。ただし企業にとってこの誓約は規制先取りの戦略的意味を持つ。誓約を履行すれば電力問題に起因する建設規制を回避できる可能性がある。
ビジネス的含意:大手テックが電力インフラに直接投資することで、エネルギーセクター(電力グリッドアップグレード、再生可能エネルギー、冷却技術)の需要が確実に増加する。一方でインフラ負担を引き受けられない中小AI企業とのスケール格差は拡大し、資本集約型産業としての性質がより強まる。
参考: The Verge AI - Seven tech giants signed Trump’s pledge to keep electricity costs from spiking around data centers
東大松尾研の医療特化LLM ── 官学連携で垂直特化AIが競争力を持つ時代
東京大学・松尾岩澤研究室を中心に、さくらインターネット、ELYZA、ABEJA、理化学研究所などが連携し、医療特化日本語LLM「Weblab-MedLLM-Qwen-2.5-109B-Instruct」を発表した。ベースはAlibabaのQwen-2.5-72B-Instructで、医療データで継続学習した1090億パラメータのモデルだ。
性能指標は説得力がある。2025年医師国家試験正答率93.3%(OpenAI o1は92.8%、DeepSeek R1は91.5%)。RAGと組み合わせると98%近くに達する。電子カルテの標準名称変換タスクでもGPT-4oを上回った。日本の医療制度固有の知識(厚労省標準名称など)への対応は汎用グローバルモデルには難しい領域であり、ドメイン特化の価値を定量的に示した。
資金調達モデルも注目すべきだ。本プロジェクトは政府の「戦略的イノベーション創造プログラム(SIP)」第3期の資金援助を受けている。大学・企業・政府機関が揃うコンソーシアム型は、単独のスタートアップでは難しい医療データへのアクセスを可能にする。ELYZAとABEJAという東大松尾研発の企業が中核を担う点も、大学発スタートアップのエコシステム形成として注目に値する。
現在は研究者向け無償提供(3月5日〜8月31日)で商用化への道筋は未公表。診断・診療・治療行為への利用は不可とされており、規制との関係を慎重に構築している。医療AIは潜在的TAMが巨大な一方、規制・倫理・データプライバシーの壁が厚く、先行者がそのまま覇者になれる市場ではない。
参考: ITmedia AI+ - “医療特化”の日本語LLM開発、東大松尾研やさくらなど 研究者に無償提供
OpenAI Codex Windows版登場 ── クロスプラットフォームで開発者市場を統一
OpenAIがCodexアプリのWindows版を公開した(macOS版は2月にリリース済み)。Codexは複数のAIエージェントをGUIで並列管理するデスクトップ環境で、ChatGPTのFree・Go・Plus・Proユーザーが無料で利用できる。
競合はAnthropicのClaude Code(CLI・ターミナル中心)とGitHub Copilot(IDE統合)だ。CodexはMacとWindowsでセッション履歴を共有できるため、マルチプラットフォーム開発者を取り込む狙いがある。専用の「Skills」セクションでエージェントを特定のツールやワークフローに接続する仕組みも備える。
無料提供によるユーザー獲得→API利用料で収益化というモデルは、ユーザー基盤の大きなOpenAIに構造的に有利だ。開発者向けツールでのプレゼンス確立は、企業顧客へのアップセルに直結する。
参考: ITmedia AI+ - OpenAI、「Codex」のWindows版もリリース
日本企業のAI活用格差 ── PwC調査が示す変革の余地
PwCのグローバル調査(48カ国・地域、約5万人)によると、業務で生成AIを毎日使用している日本の従業員はわずか6%(グローバル14%)。「過去1年間に業務でAIを活用した」は35%(グローバル54%)にとどまる。一方で、日常的に活用している人の9割超が「生産性向上を実感」している。
格差は使用率だけではない。「学習・能力開発のための十分なリソースがある」と感じている日本の従業員は20%台(グローバルの非管理職は51%)。「新しいアプローチを試すことに安全性を感じる(心理的安全性)」は日本33%対グローバル56%。「組織の長期的な目標を理解している」という問いへの肯定率は日本の経営幹部でも60%未満(グローバルは70%以上)で、非管理職では30%未満だ。
ビジネスチャンスの角度から見ると、日本市場はまだ「AI導入初期フェーズ」にある。課題が「ツールの性能」ではなく「組織風土・学習環境・心理的安全性」の欠如であることは、HR系・組織コンサル系のAI活用支援サービスへの大きな市場機会を示している。グローバル平均まで活用率が上がるだけで生産性向上の余地は計り知れない。
参考: ITmedia AI+ - 生成AIで9割が生産性向上を実感 なのに「毎日使う」はわずか6%
まとめ
今日のニュースはAI産業が「チップ・モデル・ソフトウェア」という三層の覇権争いから、「インフラ・倫理・垂直特化」という新しい競争軸へシフトしていることを示している。Nvidiaの投資縮小は循環エコノミーの限界を、ChatGPTアンインストール急増は倫理姿勢が直接ビジネスに影響する時代を示す。医療LLMや日本の低活用率が示す垂直特化・地域特化の市場機会は、大手が苦手とする領域でのフロンティアであり、スタートアップが差別化できる余地は依然として大きい。
AI業界の権力争いとビジネスチャンス ── Nvidia投資縮小・軍事AI対立・医療LLM参入機会 今日のAIニュースは「関係の再編」「リスクの顕在化」「新市場の誕生」という3つのテーマに集約される。投資の流れが変わり、軍事AIをめぐる倫理論争が企業の評判を直撃し、医療という巨大市場でのAI参入機会が現実になってきた。
Nvidiaが「もう投資しない」── 循環構造の終焉
NvidiaがOpenAIに「最大1000億ドル投資する」と発表したのは2025年9月。しかし先週実際に完了した出資額は300億ドルにとどまった。さらにCEOのジェンセン・フアンは「OpenAIとAnthropicへの追加投資はないだろう」と明言した。
理由はシンプルだ。要するに、Nvidiaはチップを売れば十分なのだ。「NvidiaがOpenAIに出資し、OpenAIがNvidiaのチップを買う」という循環は「実質的に相殺し合う」とMITの研究者に指摘されていた。加えて、AnthropicとはAIチップ輸出問題で関係が悪化している。OpenAI・Anthropicどちらも近くIPOを控えており、上場後は株主として参加できなくなる。投資終了は合理的な判断と言える。
ビジネス観点では、Nvidiaの資金が次にどこへ向かうかが注目点だ。同社は「エコシステム拡大」を投資目的に掲げており、より小規模な次世代AIスタートアップへの出資が増える可能性がある。
参考: TechCrunch AI - Jensen Huang says Nvidia is pulling back from OpenAI and Anthropic
OpenAI対Anthropic、軍事AI契約で公開対立
先週、米国防省(DoD)がAnthropicとの新規AI契約を断念し、OpenAIと合意した。Anthropicは倫理基準(自律型兵器・大規模監視への使用禁止)の明文化を求めて交渉決裂、OpenAIがその契約を引き受けた形だ。
この対立が明確にしたのは「倫理姿勢がビジネスに直結する」という現実だ。OpenAIの契約発表後、ChatGPTのアンインストールが295%急増した。要するに、ユーザーは企業の姿勢を見て選択しているということだ。Anthropicのアモダイ CEOは社内メモでOpenAIのメッセージを「真っ赤な嘘」と断じ、それがメディアに漏れる騒ぎになっている。
AIスタートアップがどこで倫理的な線を引くかは、今や純粋な戦略的意思決定だ。安全基準を軸にしたブランドは顧客の信頼を生むが、政府収益を失うリスクを伴う。
参考: TechCrunch AI - Anthropic CEO Dario Amodei calls OpenAI’s messaging around military deal ‘straight up lies’
7大テックが「電力コストは自分たちが払う」と誓約
Google、Meta、Microsoft、Oracle、OpenAI、Amazon、xAIの7社がホワイトハウスで「レートペイヤー保護誓約」に署名した。「データセンターの電力需要に必要なインフラアップグレードコストを企業が負担する」という内容だ。
背景にある数字を整理しよう。データセンターの電力需要は2028年までに2〜3倍になる見通しで(米エネルギー省)、2025年には全米の家庭電気代が13%上昇した。「テック企業のデータセンターが来ると電気代が上がる」というイメージが定着し、建設反対運動も起きていた。
投資家・事業者への含意は明確だ。大手テックが電力インフラに直接投資することで、エネルギーセクター(電力グリッド、再生可能エネルギー、冷却技術)の需要が確実に増加する。一方でこのインフラ負担を引き受けられない中小AI企業との格差は拡大していく。
参考: The Verge AI - Seven tech giants signed Trump’s pledge to keep electricity costs from spiking around data centers
東大松尾研の医療特化LLM ── 医師国家試験でo1越え
東大・松尾岩澤研究室、さくらインターネット、ELYZA、ABEJAなどが共同開発した日本語医療LLM「Weblab-MedLLM-Qwen-2.5-109B-Instruct」が、2025年医師国家試験で正答率93.3%を達成した。OpenAI o1(92.8%)、DeepSeek R1(91.5%)を上回る数字だ。RAGと組み合わせると最大98%まで向上するという。
現在は研究者向けの無償提供(3月5日〜8月31日)だが、電子カルテの標準名称変換など実務タスクでも既存の汎用モデルを超えた。日本の医療制度固有の知識を持つモデルは、英語中心で学習したグローバルモデルにはできないことができる。
スタートアップ機会は明確だ。医療AIは規制と倫理の壁が高く参入障壁が大きいが、その分プレイヤーが少ない巨大市場でもある。政府の「戦略的イノベーション創造プログラム(SIP)」のような官学連携スキームは、単独のスタートアップでは難しい医療データへのアクセスを可能にする資金調達モデルとして参考になる。
参考: ITmedia AI+ - “医療特化”の日本語LLM開発、東大松尾研やさくらなど 研究者に無償提供
日本企業のAI活用格差 ── 変革の余地は大きい
PwCの調査(48カ国・地域、約5万人)によると、生成AIを日常的に使っている人の9割超が「生産性向上を実感」している。だが日本で毎日使っている従業員はわずか6%(グローバル14%)だ。
問題の根本はツールの性能ではなく、組織文化にある。「新しいアプローチを試すことに安全性を感じる(心理的安全性)」は日本33%対グローバル56%。学習・能力開発のリソースが「十分にある」と感じている日本の従業員は20%台で、グローバルから大きく劣後している。
要するに、日本市場はまだ「AI活用の初期フェーズ」にある。ツールの課題より組織風土・学習環境の課題が大きく、そこを解決するHR系・コンサル系のAI活用支援サービスには大きな市場機会がある。
参考: ITmedia AI+ - 生成AIで9割が生産性向上を実感 なのに「毎日使う」はわずか6%
まとめ
AIビジネスの競争軸が「誰が最速か」から「誰が信頼されるか」「誰が持続可能なインフラを持つか」へと移り始めている。ChatGPTアンインストールの急増は象徴的で、倫理や安全性の姿勢がそのままユーザーの選択に直結する時代に入った。医療LLMのような垂直特化の流れも加速しており、大手が苦手とするドメインで差別化するフロンティアは広がっている。
Claude Code脆弱性の技術解剖、Auto Mode設計、医療LLMのアーキテクチャ ── AIツールの深層 今日はAIコーディングインフラのセキュリティと自律化設計、ドメイン特化LLMの技術的成熟、そしてarXivからエージェント検索・3D再構成・ロボット学習・マルチモーダルエージェントのセキュリティにおける方法論的進歩が重なった。実装に直結する知識を軸に解説する。
Claude CodeのRCE・APIキー窃取脆弱性の技術解剖
Check Point Research(CPR)が2026年3月3日に公開した調査(CVE-2025-59536、CVE-2026-21852)は、AIコーディングアシスタントの信頼モデルに根本的な問いを投げかける。
Claude Codeはリポジトリ内の.claude/ディレクトリおよびその設定ファイルを認識し、ツール起動時に読み込む。この設定ファイルには以下の攻撃ベクタが存在していた:
1. Hooks機能によるRCE :Hooksはセッション開始・コマンド実行前後などのライフサイクルイベントに任意のシェルコマンドを紐付ける機能だ。悪意あるリポジトリ側でHooks設定を仕込めば、ユーザーがclaudeコマンドを実行してプロジェクトを開いた瞬間にコマンドが実行される。ユーザーの明示的操作は一切不要だ。
2. MCPの同意フロー回避 :MCP(Model Context Protocol)は外部ツール連携時にユーザーへの承認プロンプトを表示するが、リポジトリ側の設定でこの保護機能を上書きできた。外部ツールの初期化がユーザーの承認なしに進む。
3. API通信のリダイレクト :Claude CodeはANTHROPIC_BASE_URLなどの環境変数や設定で基底URLを変更できる。MCPサーバ設定と組み合わせると、Anthropicへの全API通信(認証ヘッダ含む)を攻撃者サーバに転送できた。APIキーが取得されるのは、ユーザーが「このプロジェクトを信頼するか」を判断するタイミングより前の段階だ。
Workspacesの被害拡大構造 :AnthropicのWorkspaces APIは複数のAPIキーが同一クラウドプロジェクトを共有する設計になっている。1キーの流出でプロジェクト全体への読み書き権限が得られるため、攻撃の爆発半径が大きい。
修正内容 :Anthropicは(a)ユーザーの信頼確認プロンプトの強化、(b)信頼確認前の外部ツール実行ブロック、(c)信頼確認完了前のAPI通信遮断の3点を実装した。根本的な問題はHooksとMCPという強力な自動化レイヤーと、設定ファイルへの信頼評価が分離されていたことにある。VSCodeの拡張機能や他のAI開発ツールにも類似した攻撃面が存在しうる。
参考: ITmedia AI+ - Claude Codeの重大な脆弱性を分析 開発者への3つの影響とは?
Claude Code Auto Modeのアーキテクチャと設計上のトレードオフ
3月12日(現地時間)以降のリサーチプレビューで提供される「Auto Mode」は、--dangerously-skip-permissionsオプションの安全な代替として設計されている。
動作モデル :現在のClaude Codeは権限要求ポイント(ファイル削除・外部コマンド実行・ネットワーク要求など)でユーザーへの確認を求めるHITL(Human in the Loop)モデルだ。Auto Modeでは、AIが権限要求ポイントに到達した際にユーザーの代わりに承認判断を行う。この判断自体もLLMによる評価であり、「この操作は安全か」をコンテキストに基づいて判定する。
セキュリティ設計 :プロンプトインジェクション対策を内蔵しているが、具体的な実装(フィルタリング戦略、adversarial promptへの対処)は非公開だ。Anthropicは外部から隔離された環境での利用を推奨しており、サンドボックスなしの本番環境への適用は推奨されない。
トークンコスト :権限要求ポイントごとに追加のLLM評価呼び出しが発生するため、通常モードよりトークン消費量が増加する。長時間タスクでの累積コストは事前に見積もる必要がある。
組織制御 :管理者向けのAuto Mode無効化はOSレベルまたはファイルベースの設定で可能とされている。マルチテナント環境や高セキュリティ要件の組織では、オプトアウト設定の確認が重要だ。
上述の脆弱性問題と合わせると、自律的な権限承認を行うAuto ModeはHooksやMCPとの組み合わせで新たな攻撃面を生む可能性がある。悪意ある設定ファイルがAuto Modeの判断を操作するシナリオの脅威モデリングが必要だ。
参考: ITmedia AI+ - Claude Codeに「オートモード」登場 承認作業をAIで自動化
東大松尾研・医療特化LLMの技術的アプローチ
「Weblab-MedLLM-Qwen-2.5-109B-Instruct」はAlibabaのQwen-2.5-72B-Instructをベースに医療特化の継続学習(Continual Pre-training + Instruction Tuning)を行ったモデルだ。
定量的性能 :
2025年医師国家試験正答率:93.3%(o1: 92.8%、DeepSeek R1: 91.5%)
RAG組み合わせ時(図・計算問題除く):最大98%
電子カルテ標準名称変換タスク:GPT-4oおよびQwen-2.5-72B-Instructを上回る
電子カルテ標準名称変換は、「血糖」「BS」「Glu」のような表記揺れを厚労省が定める標準名称(「グルコース」等)に変換するタスクだ。文字列マッチングでは対応できない多様な揺れを意味レベルで処理する必要があり、医療知識グラフ的な情報が学習されていることを示唆する。
コンソーシアム構成の論理 :さくらインターネット(GPU計算インフラ)、ELYZA・ABEJA(LLM実装・MLOps)、理化学研究所(計算科学・研究連携)、医療機関(データ提供)という構成は、データ・計算・実装の三資源を揃えるための典型的なコンソーシアム設計だ。特に医療データへのアクセスは単独のスタートアップでは困難であり、官学連携の枠組みが実現要因になっている。
OSS・商用化の見通し :SIP(戦略的イノベーション創造プログラム)資金を受けたプロジェクトの成果物として一定のアクセシビリティが期待されるが、研究者向け提供期間(〜8月31日)後の方針は未公表だ。商用化・OSS化どちらに向かうかは、日本の医療AI市場の形成に影響する。
参考: ITmedia AI+ - “医療特化”の日本語LLM開発、東大松尾研やさくらなど 研究者に無償提供
arXiv: AgentIR ── 推論対応Retrievalでディープリサーチエージェントの検索を改善
arXiv:2603.04384「AgentIR: Reasoning-Aware Retrieval for Deep Research Agents」は、LLMエージェントが検索クエリを発行する直前に生成する推論テキストを活用してRetrievalを改善する手法を提案する。
問題設定 :人間ユーザーは検索クエリのみを発行するが、Deep ResearchエージェントはChain-of-ThoughtやReActパターンで検索前に自然言語の推論を生成する。この推論テキストはクエリよりも豊富な意味情報(検索意図・背景知識・推論の方向性)を含む。既存の検索システムはクエリのみを入力として設計されており、この豊富な情報を活用できていない。
AgentIRのアプローチ :推論テキストからクエリ関連の概念・キーワードを抽出し、クエリ拡張またはDense Retrievalのエンベディング重み付けに活用する。エージェントが「なぜこの検索をするのか」というコンテキストを検索システムが理解することで、より関連性の高いドキュメントを取得できる。
実装上の含意 :LlamaIndexやLangGraphを用いたRAGパイプラインをエージェント環境に適応させる際、クエリ生成ステップと推論ステップの分離設計を見直す価値がある。エージェントの推論ログをRetriever側に渡す設計が有効な可能性がある。
参考: arXiv - AgentIR: Reasoning-Aware Retrival for Deep Research Agents
arXiv: ZipMap ── O(n)の線形時間3D再構成
arXiv:2603.04385「ZipMap: Linear-Time Stateful 3D Reconstruction with Test-Time Training」は、3D再構成の計算コストスケーリング問題に取り組む。
背景問題 :VGGTや$\pi^3$のような最新のFeed-forwardトランスフォーマーベース3D再構成モデルは、入力画像数に対してO(n²)の計算コストがかかる。Self-Attentionのアテンション計算が全画像ペアに及ぶためだ。大規模画像コレクション(ドローン映像、都市スキャン等)への適用が実用的でなかった。
ZipMapの手法 :Sequential-reconstructionアーキテクチャにTest-Time Training(TTT)を組み込み、線形時間O(n)で3D再構成を実現する。TTTは推論時に入力データに対して一時的なモデル更新を行う手法で、ストリーミング的なフレーム処理を可能にする。「Stateful」という設計は連続フレーム間の状態保持を意味し、過去フレームの情報を圧縮して保持することでメモリ効率も改善する。
実用的含意 :大規模屋外シーンのリアルタイム3D再構成が現実的になる。ドローン測量・自律走行のHDマッピング・Gaussian Splattingとの組み合わせなど、画像枚数が大きいタスクへの適用が開ける。
参考: arXiv - ZipMap: Linear-Time Stateful 3D Reconstruction with Test-Time Training
arXiv: マルチモーダルWebエージェントへの敵対的安全学習
arXiv:2603.04364「Dual-Modality Multi-Stage Adversarial Safety Training: Robustifying Multimodal Web Agents Against Cross-Modal Attacks」は、WebエージェントへのDOM注入攻撃への耐性学習を扱う。
攻撃モデル :スクリーンショットとアクセシビリティツリー(DOM構造のテキスト表現)を両入力として持つWebエージェントは、攻撃者がWebページのDOMに悪意あるコンテンツを注入することで両方のモダリティを同時に汚染できる。これはPrompt Injection攻撃のマルチモーダル版であり、単一モダリティのフィルタリングでは防げない。
提案手法 :Dual-Modality(スクリーンショット+DOM)それぞれに対する敵対的サンプルを生成し、2段階の敵対的学習(adversarial training)でモデルのロバストネスを高める。通常のfine-tuningと比較して攻撃成功率を大幅に低減しつつ、正常タスクの性能を保持することを実証している。
設計上の含意 :Webブラウザを操作するエージェント(OpenAI Operator、Anthropic Computer Use等)をプロダクション環境に展開する際、悪意あるWebページへのアクセスシナリオに対する耐性テストが必要だ。信頼できないWebサイトを含むタスクには追加のセキュリティレイヤーが求められる。
参考: arXiv - Dual-Modality Multi-Stage Adversarial Safety Training: Robustifying Multimodal Web Agents Against Cross-Modal Attacks
arXiv: RoboCasa365 ── 汎用ロボット評価のための大規模シミュレーション基盤
arXiv:2603.04356「RoboCasa365: A Large-Scale Simulation Framework for Training and Benchmarking Generalist Robots」は、ロボット学習における再現可能な大規模評価基盤の欠如という問題に取り組む。
問題意識 :ロボット学習は近年急速に進歩しているが、「汎用ロボット」の性能を体系的に評価する統一ベンチマークがなかった。各研究グループが独自の実験環境を使うため、論文間の横断比較が難しく、進歩の定量化が困難だった。
RoboCasa365の設計 :日常生活タスク(台所作業を中心とした365種類のバリエーション)を含む大規模シミュレーション環境で、訓練データ生成とベンチマーク評価の両方を統一環境で行える設計だ。既存のRoboCasaフレームワークの大規模拡張であり、Diffusion Policy・3D Action Tokenization・Behavior Cloningなど複数の手法との比較が可能になる。
Sim-to-Real転送の観点 :シミュレーションと実世界のドメインギャップを縮める設計(フォトリアリスティックなレンダリング、物理的に正確な接触シミュレーション)が重要だ。本フレームワークがオープンソース化されれば、ロボット学習の再現性確立と実世界展開への加速に大きく貢献する。
参考: arXiv - RoboCasa365: A Large-Scale Simulation Framework for Training and Benchmarking Generalist Robots
まとめ
Claude Codeの脆弱性とAuto Modeは、AIコーディングツールの設計において「信頼モデルの明確化」と「自律化の境界設定」が最重要課題であることを示している。設定ファイルを処理するすべてのAI開発ツールは同様の攻撃面を持ちうる。医療LLMの成熟はドメイン特化ファインチューニングが汎用モデルを実用上で超えられることを証明した。arXivが示す研究の方向性は「エージェントの検索・推論の効率化」「自律システムのロバストネス」「評価基盤の標準化」の3軸に収束しており、産業への実装がより現実的なフェーズに入っている。
Claude Codeのオートモードと重大脆弱性 ── AIコーディングツールの光と影 今日は技術者が知っておくべきニュースが揃った。AIコーディングツールの「Claude Code」に新しいモードが追加されると同時に、重大なセキュリティ欠陥が修正された。さらに東大発の医療LLMが汎用モデルを超える性能を示し、arXivではAIエージェントの検索効率を改善する研究が登場した。AIツールを使う側にも作る側にも関係する内容だ。
Claude Codeのオートモード ── 承認プロンプトをAIが自動処理
Claude Codeは3月12日以降、「Auto Mode」のリサーチプレビューを開始する。ひと言で言うと「本当にこのファイルを削除しますか?」のような人間への確認をAIが自動で処理してくれるモードだ。
なぜこれが必要か。AIコーディングでは長い処理の途中で「人間の承認が必要」な場面が頻繁に発生し、作業がブロックされる。これを迂回するために--dangerously-skip-permissionsオプションを使うユーザーがいたが、名前が示す通り安全性に問題がある。Auto ModeはLLMが権限要求ポイントで判断を行い、同時にプロンプトインジェクション攻撃(悪意ある入力が判断を操作しないようにする)への防御も組み込んでいる。
ただし通常より多くのトークンを消費する。Anthropicは「外部から隔離された環境での利用を推奨」と明記しており、どんな環境でも使えるわけではない。組織の管理者はOSまたはファイルレベルでAuto Modeを無効化できる設定も用意されている。後述の脆弱性問題と合わせて考えると、自律的な権限承認はサンドボックス環境での運用が前提と理解しておこう。
参考: ITmedia AI+ - Claude Codeに「オートモード」登場 承認作業をAIで自動化
Claude Codeに重大な脆弱性 ── リポジトリを開くだけで攻撃される
Check Point Researchが、Claude Codeで発見・修正された2つの重大な脆弱性(CVE-2025-59536、CVE-2026-21852)の詳細を公開した。現在は修正済みだが、仕組みを知っておく価値がある。
攻撃の流れはこうだ。(1) 攻撃者が悪意ある設定ファイルを仕込んだリポジトリをGitHubに公開する。(2) 被害者がそのリポジトリをクローンしてclaudeコマンドで開く。(3) それだけで(追加操作なしで)シェルコマンドが実行される。
具体的な経路は3つある。Hooks機能の悪用 :セッション開始時に自動実行される処理を設定ファイルに仕込む。要するに、プロジェクトを開いた瞬間に任意コマンドが走る。MCPの同意フロー回避 :外部ツール連携時の警告がリポジトリ側の設定で無効化される。APIキー窃取 :Claude CodeのAnthropicへのAPI通信を攻撃者サーバにリダイレクトし、認証ヘッダごと取得する。
APIキーが漏れると深刻だ。AnthropicのWorkspaces機能では複数のキーが同一プロジェクトを共有しており、1キーの流出でプロジェクト全体への読み書きができてしまう。Anthropicは修正として信頼確認の強化・外部ツール実行のブロック・API通信の遮断を実装した。
教訓:「信頼できないリポジトリは実行するな」は昔から言われてきたが、AIコーディングツールの登場で「開くだけ」でも危険な時代になった。
参考: ITmedia AI+ - Claude Codeの重大な脆弱性を分析 開発者への3つの影響とは?
東大松尾研の医療LLM ── 1090億パラメータで医師国家試験93%
東大・松尾岩澤研究室主導の「Weblab-MedLLM-Qwen-2.5-109B-Instruct」は、AlibabaのQwen-2.5-72B-Instructをベースに医療データで継続学習した1090億パラメータモデルだ。
技術的なポイントは「ベースモデルの知識を医療ドメインでさらに伸ばす」アプローチだ。2025年医師国家試験の正答率93.3%はOpenAI o1(92.8%)を上回り、RAGと組み合わせると98%近くに達する。電子カルテの標準名称変換タスク(例:「血糖」→「グルコース(空腹時)」のような変換)でも既存の汎用モデルを超えた。これは日本固有の医療制度データ(厚労省の標準名称データベース)を学習したことの強みで、英語中心で学習したグローバルモデルには再現が難しい。
さくらインターネット(GPU計算インフラ)、ELYZA・ABEJA(ML実装・データ基盤)、理化学研究所(研究連携)という連携構成は、データ・計算・実装の三資源を揃えた典型的なコンソーシアム設計だ。現在は研究者向け無償提供(〜8月31日)。診断・治療行為への利用は不可。
参考: ITmedia AI+ - “医療特化”の日本語LLM開発、東大松尾研やさくらなど 研究者に無償提供
arXivから:AIエージェントの検索とWebセキュリティの研究
今日のarXivから注目した2本を紹介する。
AgentIR:ディープリサーチエージェントのための推論対応検索 (arXiv:2603.04384)
人間がGoogle検索するとき、クエリを入力して結果を見て、また次の検索を決める。AIエージェントが同じことをする場合、Chain-of-ThoughtやReActパターンで「検索の前に推論テキストを生成する」という独特のパターンが生まれる。この推論テキストはクエリより豊富な意味情報を持つが、既存の検索システムはクエリのみを入力として設計されていた。AgentIRはこの「検索前の推論」を活用することで、既存のDocument Retrievalシステムより良い検索結果を取得する手法だ。RAGパイプラインをエージェント環境に最適化するための設計指針として実装上も参考になる。
マルチモーダルWebエージェントの敵対的安全学習 (arXiv:2603.04364)
スクリーンショットとアクセシビリティツリー(DOMの構造情報)の両方を処理するWebエージェントは、WebページのDOMにコンテンツを注入することで両方の入力を同時に汚染できるという攻撃面を持つ。要するに、Webページに「AIへの命令」を仕込んで、ブラウザを操作するAIエージェントを乗っ取れる可能性がある。この論文では2段階の敵対的学習(adversarial training)でこの攻撃に耐性を持たせる手法を提案している。AIがWebブラウザを操作する時代の現実的なセキュリティ問題だ。
参考:
arXiv - AgentIR: Reasoning-Aware Retrival for Deep Research Agents
arXiv - Dual-Modality Multi-Stage Adversarial Safety Training: Robustifying Multimodal Web Agents Against Cross-Modal Attacks
まとめ
Claude Codeの自律化(オートモード)と脆弱性問題は表裏一体だ。「AIに判断を委ねる」便利さは「AIが悪用される」リスクと切り離せない。医療LLMが示すように、汎用モデルをドメイン特化データでファインチューニングする手法は成熟し、性能での優位性も現実になった。AIツールが強力になればなるほど、セキュリティと設計の慎重さが問われる。