published at
|

AnthropicとPentagonの激突、AIインフラへの兆ドル投資、そして研究最前線


今週最大のトピックは、Anthropicと米国防総省(DoW)の対立だ。「大規模国内監視」と「完全自律型兵器」へのAI転用を拒否したAnthropicはトランプ大統領に「極左」と名指しされ、政府機関での製品使用を停止させられる事態に発展した。その裏側でClaudeはApp Store2位に急浮上するという皮肉な展開を見せ、OpenAIは「多層的安全保護」を盾に軍との契約をまとめた。一方でAIインフラへの投資競争は今十年で3〜4兆ドル規模にまで膨らむとNVIDIA・Jensenが見立てており、地に足のついた実用化事例として日立と塩野義の医薬品AI(文書作成50%削減)も登場している。

Anthropic vs Pentagon:AI安全策をめぐる歴史的対立

事態の発端は、米国防総省がAI企業に対してセーフガードの撤廃と「あらゆる合法的な利用」への同意を求めたことだ。Anthropicはこれに対し、軍への技術提供自体には協力的な姿勢を保ちながら、「米国民の大規模な国内監視」と「人間の判断を完全に排除した自律型兵器」への転用の2点については民主主義的価値観に反すると拒否した。

Dario Amodei CEOは「特定の軍事作戦に異議を唱えたわけでも、場当たり的な利用制限をしたわけでもない」と声明を出したが、トランプ大統領はソーシャルメディアで同社を「極左のナットジョブ」と呼び、6ヶ月の猶予付きで連邦機関での製品使用停止を命じた。さらにHegseth国防長官は「軍と取引のある請負業者はAnthropicとの商業活動を禁止する」と宣言し、「サプライチェーンリスク」への指定を指示した。

サプライチェーンリスク指定は本来、敵対的な外国勢力の関連企業に適用される措置であり、米国企業への公式適用は史上初となる。Anthropicは「この措置に法的権限はない」と即座に反論し、法廷闘争を宣言。また、指定の影響は軍との請負業者が業務でAnthropicのAIを使う場合に限られ、一般ユーザーや通常商取引には及ばないと説明している。

参考: ITmedia AI+ - 米国防長官、Anthropicを「サプライチェーンリスク」に指定へ 同社は法廷闘争を宣言 TechCrunch AI - OpenAI’s Sam Altman announces Pentagon deal with ‘technical safeguards’

ClaudeがApp Store2位に急浮上:炎上の逆説的恩恵

この騒動の中、Anthropicのチャットボット「Claude」が米Apple App Storeでフリーアプリランキング2位に急上昇した。SensorTowerのデータによると、1月末時点でトップ100圏外だったClaudeは、2月を通じてほぼトップ20以内をキープ。直近では水曜6位→木曜4位→土曜2位という急上昇を見せた。1位はChatGPT、3位はGoogle Geminiという布陣だ。

これは典型的な「炎上マーケティング」の逆説的な効果だ。トランプ政権との対立がメディアで大きく報道され、Anthropicの存在と「Claude」というブランド名が一気に一般層にまで広まった。安全性への姿勢を貫く企業姿勢に共感した層がダウンロードしたと推測できる。同様の現象は、他の企業や個人がポリシー上の立場を示した際にも繰り返し起きている。

エンジニアとしての視点で見ると、ランキング急上昇が実際の課金ユーザー数や長期的な製品評価につながるかどうかは別の話だ。ただ、認知度の低さがClaudeの課題の一つであったことを考えると、この「怪我の功名」は決して小さくない。

参考: TechCrunch AI - Anthropic’s Claude rises to No. 2 in the App Store following Pentagon dispute

OpenAIが軍と合意:「多層的アプローチ」で自社レッドラインを守る

同じ問題でOpenAIは全く異なる結末を迎えた。Sam Altman CEOはX(旧Twitter)で、DoWの機密ネットワークへのAIモデル導入に合意したと発表。その翌日には公式ブログで詳細な合意内容を公開した。

OpenAIが採った「多層的アプローチ」の核心は、モデルの展開をクラウド環境のみに限定することだ。これにより、完全自律型兵器が動作するエッジデバイスへの物理的なアクセスを遮断できる。加えて、機密取扱資格を持つOpenAIのエンジニアを継続的に関与させる体制を維持し、契約文書にも国内監視禁止の現行法とDOD指令を明記した。さらに「将来政府が法律を変更しても現在の安全基準が適用される」という保護条項まで盛り込んでいる。

Altmanはこの合意にあたり、DoWに対して「すべてのAI企業に同じ条件を提示するよう」求めており、Anthropicのサプライチェーンリスク指定には反対の立場を政府に伝えたとも明かしている。60名超のOpenAI従業員と300名のGoogle従業員がAnthropicの立場を支持する公開書簡に署名していたことも背景にある。

Anthropicがなぜこの方式を選ばなかったのかは外部からは判断できないが、クラウド限定という技術的制約を設けることでセーフガードを担保するという設計は、今後の業界標準になり得る重要な実装パターンだ。

参考: ITmedia AI+ - OpenAI、米国防総省とAI導入で合意 Anthropicへの強硬措置の沈静化を要請 OpenAI Blog - Our agreement with the Department of War

AIインフラへの兆ドル投資競争:今十年で3〜4兆ドル規模

NVIDIAのJensen Huang CEOが直近の決算説明会で「今十年でAIインフラに3〜4兆ドルが投じられる」と見積もっている。現在進行中の主なプロジェクトを俯瞰すると、その規模感が実感できる。

Microsoftは2019年にOpenAIへ10億ドルを出資し、その後累計140億ドル近くまで積み増した。当初の合意でMicrosoftはAzureをOpenAIの独占クラウドプロバイダーとする権利を得ていたが、昨年OpenAIはこの独占を解消。OracleはOpenAIと300億ドルのクラウドサービス契約(前年度クラウド売上を超える額)を締結しており、NVIDIAもOpenAIに1000億ドルの投資を実施してGPU調達力を確保した。

Anthropicは別ルートを走っており、AmazonAWSから80億ドルの出資を受けると同時に、Amazonのカスタムチップ(Trainium/Inferentia)をAI学習に最適化するカーネルレベルの改修を実施している。この「資金+共同技術開発」の形態はAI-クラウド間の関係を単純なベンダー関係から共同開発パートナーに引き上げており、業界全体の構造変化として注目に値する。

さらにGoogle Cloudは、Lovable・Windsurf(旧Codeium)といった中小AIスタートアップを「プライマリコンピューティングパートナー」として囲い込む動きを見せている。大手AIが自前のクラウドアレンジを確立した後、中小が取り込まれるという二層構造が形成されつつある。

参考: TechCrunch AI - The billion-dollar infrastructure deals powering the AI boom

BCGレポート:日本のCEOはAI投資に「慎重だが責任感が強い」

Boston Consulting Groupが世界16市場・9業界の売上高1億ドル超の企業経営層2360人を対象に実施した調査結果が公開された。2026年の企業AI投資は前年比約2倍に拡大し、売上高に占める割合は約1.7%(2024年0.6%→2025年0.8%→2026年1.7%)に達する見込みだ。

特筆すべきはAIエージェントへの配分だ。調査に参加したCEOの90%が「AIエージェントは2026年に定量的成果を生む」と回答しており、平均でAI投資額の3割超をエージェント関連に振り向ける計画を持つ。投資収益率(ROI)については約8割のCEOが「前年より見通しが改善した」と答え、短期成果が出なくても94%が現水準以上の投資継続を意向している。

日本固有の数字が面白い。「AIに関する主要判断を自ら担う」と答えたCEOは世界平均72%に対し日本は88%とトップクラス。「AI戦略の結果が自身の評価に影響する」と考えるCEOも世界平均50%に対して日本は70%で高い。ただし大胆な投資と迅速な人材強化を進める「先駆型」は日本でわずか1割にとどまり、「慎重型」が多い。

BCGはこの結果について、「競争力の差は経営トップが戦略と業務を再設計し、新たな製品・サービスの創出まで踏み込めるかに左右される」と指摘している。日本のCEOは責任感と危機意識は高いが、実行の速度では出遅れているという構造だ。

参考: ITmedia AI+ - 日本の社長は「AI投資に慎重だけど責任感強い」 AI時代の競争力向上に必要な姿勢とは

日立と塩野義:医薬品規制文書の作成時間を50%削減

日立と塩野義製薬が共同開発した医薬品開発向け規制関連文書作成支援ソリューションが、日本国内の医薬品・ヘルスケア企業向けに提供を開始した。両社は2025年1月から業務提携しており、今回はその初の成果物だ。

対象となる文書は治験実施計画書(IND)や治験総括報告書(CSR)など、新薬申請に必要な高度に専門化された書類だ。通常これらの作成には3〜5ヶ月を要し、メディカルライターの実作業は1試験あたり100〜280時間に及ぶ。国際ガイドライン(ICH)への準拠が求められるため、専門性と正確性が極めて高い。

塩野義製薬のPoCでは、治験総括報告書の作成時間を約50%、治験実施計画書を約20%削減することを確認した。ソリューションは日英混在の大量の治験情報から必要事項を抽出・要約する機能と、規制文書の初稿を自動生成する機能を持つ。開発には日立の生成AI導入ノウハウと、塩野義製薬のメディカルライター・データサイエンティストの専門知識を結集した実務設計が盛り込まれており、導入直後から実務で活用できるという。

バイオ医薬品のような複雑な文書群への適用を将来的に目指しており、日立は同ソリューションをLumadaブランドの一部として展開する方針を示している。製薬業界における生成AIの実用化として、数値付きで効果が確認された珍しい事例だ。

参考: ITmedia AI+ - 日立と塩野義、生成AIで規制文書作成を最大50%短縮 医薬品開発の効率化目指す

研究ピックアップ:FlashOptim、ParamMem、SOTAlignが面白い

今回のarXivからは実装に直結する研究が複数出てきた。特に注目したい3本を紹介する。

FlashOptim(arxiv 2602.23349)は、ニューラルネット訓練のメモリ効率を改善するオプティマイザー群だ。標準的な混合精度訓練では、パラメータ自体・勾配・オプティマイザー状態変数(Adam系ではm, vの2変数)それぞれに4バイトずつが必要で、合計すると1パラメータあたり16バイト前後に膨れ上がる。大規模モデルではこれがVRAMのボトルネックになる。FlashOptimはこの問題に正面から取り組んでおり、FlashAttentionと並んで訓練インフラの効率化ラインナップに加わりそうだ。

ParamMem(arxiv 2602.23320)は、言語エージェントの自己反省(self-reflection)ループが生む「反復的な出力」という課題に取り組む。従来の反省ループはしばしば同じ誤りを繰り返すが、ParamMemは「パラメトリックな反省的メモリ」をエージェントに付与することで推論の多様性を高める。200,000件超のユーザークエリを収録したAsta Interaction Dataset(arxiv 2602.23335)とともに、AIエージェントの実運用評価に向けた基盤整備が着々と進んでいる印象だ。

SOTAlign(arxiv 2602.23353)は、凍結済みの視覚モデルと言語モデルを最適輸送(Optimal Transport)で半教師あり学習的にアライメントする手法だ。Platonic Representation Hypothesis(異なるモダリティで訓練されたモデルが共通の表現空間に収束するという仮説)を活用し、軽量なアライメント層のみで両モデルを接続する。マルチモーダルモデルを一から訓練するコストを大幅に削減できる可能性があり、実用的なインパクトが大きい。

参考: arXiv - FlashOptim: Optimizers for Memory Efficient Training arXiv - ParamMem: Augmenting Language Agents with Parametric Reflective Memory arXiv - SOTAlign: Semi-Supervised Alignment of Unimodal Vision and Language Models via Optimal Transport arXiv - Understanding Usage and Engagement in AI-Powered Scientific Research Tools: The Asta Interaction Dataset

まとめ

AnthropicとPentagonの対立は、AI企業が政府・軍との関係をどう設計するかという問いを業界全体に突きつけた。OpenAIが「クラウド限定+保護条項」という技術的解として合意を勝ち取った一方、Anthropicは法廷闘争を選んだ。どちらが正しかったかは数年後にならないと分からないが、AIのガバナンスとセーフガードの設計が単なるポリシー問題ではなく、技術アーキテクチャの問題でもあることが浮き彫りになった一週間だった。インフラへの兆ドル投資が示すように、AI産業は実験段階を完全に脱し、社会インフラとしての段階に入りつつある。その中でどのようなルールを作るかが、今最も重要な問いだ。

Sources