published at
|

Anthropicがサプライチェーンリスク指定、AI軍事利用の境界線が引かれた日


2026年2月27日は、AI業界の力学を根本から揺さぶる出来事が連鎖した一日だった。Anthropicが米国防総省の「あらゆる合法的利用」要求を拒否し、サプライチェーンリスクに正式指定された。同日、OpenAIはAmazon・Nvidia・SoftBankから1100億ドルを調達しChatGPTの週間アクティブユーザーが9億人を突破。AI音楽のSunoはARR3億ドルに達し、Perplexityはマルチモデルエージェント基盤を発表した。AIの社会実装が加速する中で「誰がAIの使い方を決めるのか」という問いが、政治・ビジネス・技術のすべてのレイヤーで同時に突きつけられている。

Anthropic vs. 国防総省:サプライチェーンリスク指定という前代未聞の展開

Anthropicと米国防総省の対立がついに決裂した。国防長官ピート・ヘグセスは2月27日、Anthropicを「サプライチェーンリスク(Supply-Chain Risk to National Security)」に正式指定した。この指定は通常、外国政府とのつながりがある組織に対して使われるもので、米国のAI企業に適用されるのは異例中の異例だ。Anthropicは法廷でこの指定に異議を申し立てる構えを見せている。

対立の核心は「any lawful use(あらゆる合法的利用)」という条件にある。国防総省は1月のメモで全AI契約企業にこの条件への同意を要求した。具体的には、大規模な国内市民監視と、人間が介在しない完全自律型致死兵器での利用が含まれる。2023年のDoD指令では、AIシステムが一定基準を満たし上級防衛当局のレビューを通過していれば、人間の判断なしに標的を選択・交戦できると定められている。軍事技術の秘匿性ゆえ、こうした自律システムが実際に運用されていても外部からは把握困難だ。これがAnthropicの懸念の本質にある。

CEOダリオ・アモデイは「脅しがあっても私たちの立場は変わらない。良心に従って要求には応じられない」と声明で明言した。ただし、Anthropicはあらゆる軍事利用に反対しているわけではない。アモデイ自身「完全自律型致死兵器を将来的に否定するつもりはないが、現時点では技術の信頼性が不十分」としており、DoDと共同でシステム信頼性向上のR&Dを行う提案もしている。

トランプ大統領はTruth Socialで「極左の意識高い系企業が戦争省を強圧し、憲法ではなく利用規約に従わせようとした」と非難し、連邦政府機関でのAnthropic製品使用の即時停止を指示。6ヶ月の段階的廃止期間を設けた上で、協力がなければ「民事および刑事上の責任を負わせる」と警告した。

この影響は広範囲に及ぶ。PalantirやAWSなどClaude を軍事業務に組み込んでいる企業は、国防省との契約を維持するためにAnthropicとの関係を断つ必要が出てくる。一方、GoogleとOpenAIの従業員300人超がAnthropicのレッドラインを支持する公開書簡に署名。Amazon、Google、Microsoft等の70万人を代表する団体「No Tech For Apartheid」も各社経営陣に国防総省の要求を拒否するよう求める声明を出した。Google DeepMindのChief Scientist・Jeff Deanも個人として大規模監視への反対を表明している。

興味深いのは競合他社の動きだ。OpenAIとxAIは既に「あらゆる合法的利用」に形式上同意しているとされるが、OpenAIのサム・アルトマンCEOは社内メモで「大規模監視と自律型致死兵器はわれわれのレッドラインだ」と述べており、Anthropicと同じ線引きを後から交渉で勝ち取ろうとしている模様だ。一方でxAIと国防総省のGrok導入契約には「いかなるセーフガードも存在しない」とNo Tech For Apartheidは指摘している。

参考: TechCrunch AI - Pentagon moves to designate Anthropic as a supply-chain risk TechCrunch AI - Anthropic vs. the Pentagon: What’s actually at stake? The Verge AI - Defense secretary Pete Hegseth designates Anthropic a supply chain risk The Verge AI - Trump orders federal agencies to drop Anthropic’s AI TechCrunch AI - Employees at Google and OpenAI support Anthropic’s Pentagon stand in open letter

OpenAI、1100億ドル調達でバリュエーション7300億ドル——ChatGPTは週間9億ユーザーに

OpenAIが史上最大級の民間資金調達を発表した。Amazonが500億ドル、NvidiaとSoftBankがそれぞれ300億ドルで合計1100億ドル。プレマネーバリュエーション7300億ドルという水準は、2025年10月時点の評価額から急激に膨らんだことになる。ラウンドはまだオープンで、追加投資家の参加が見込まれている。

同日発表されたChatGPTの数字も目を引く。週間アクティブユーザーが9億人に到達し、2025年10月の8億人から1億人増。有料サブスクライバーは5000万人で、「1月と2月は新規サブスクリプション獲得の最大月になりそう」とOpenAI自身がブログで述べている。10億人の大台がもう目前だ。

この調達の意味を考えるには、AmazonとOpenAIの関係を見るのが面白い。AmazonはこれまでAnthropicに80億ドルを出資していた最大の支援者だったが、今回500億ドルをOpenAIに投じた。Anthropicが国防総省と決裂するタイミングでの動きだけに、Amazonの「全方位戦略」が鮮明になる。一方のNvidiaにとって、この投資はAIコンピュート需要のパイプラインを確保する意味がある。AIモデルの学習・推論インフラへの需要が今後も続く限り、OpenAIへの出資は自社GPU需要の保険でもある。

ビジネスインパクトとしては、この規模の資金は単純にモデル開発だけでは使いきれない。インフラ投資、エンタープライズ営業体制の構築、そしてIPOへの準備が視野に入っているはずだ。9億人の週間ユーザーと5000万人の有料ユーザーという数字は、ChatGPTがもはや「AIチャットボット」ではなく「デジタルインフラ」になりつつあることを示している。

参考: TechCrunch AI - ChatGPT reaches 900M weekly active users

Suno、有料200万人・ARR3億ドル達成——AI音楽市場の勝ち頭が加速

AI音楽生成サービスSunoの共同創業者兼CEOミキー・シュルマンがLinkedInで公表した数字が強烈だ。有料サブスクライバー200万人、年間経常収益(ARR)3億ドル。わずか3ヶ月前の2025年11月に2.5億ドルの資金調達(バリュエーション24.5億ドル)を実施した際はARR2億ドルと発表していたから、3ヶ月でARRが50%増というハイパーグロースだ。

Sunoのプロダクトは自然言語プロンプトで楽曲を生成するSaaS。音楽経験がなくてもR&B、ポップ、ロックなどジャンルを問わず制作できる手軽さが受けている。生成された楽曲の品質は、実際にSpotifyやBillboardのチャートに入るレベルに達しており、ミシシッピ州の31歳の女性テリシャ・ジョーンズがSunoで自作の詩をR&B曲「How Was I Supposed to Know」に変換し、Hallwood Mediaと300万ドルのレコード契約を結んだ事例が象徴的だ。

著作権の問題は依然として残るが、レコード業界との関係は変化しつつある。Warner Music Groupは訴訟を和解し、ライセンス楽曲を使ったモデル開発を認める契約に転換した。Billie Eilish、Chappell Roan、Katy Perryなどアーティスト個人からの反発は続いているが、業界構造としては「対立から共存」へと動き始めている。ARR3億ドルという規模感は、AI音楽がニッチな実験ではなく一つの産業カテゴリとして確立しつつあることを証明している。

参考: TechCrunch AI - AI music generator Suno hits 2M paid subscribers and $300M in annual recurring revenue

Perplexity Computer:19モデル統合のエージェント基盤で「GDP駆動層」を狙う

Perplexityが新しいエージェント型AIツール「Perplexity Computer」を発表した。19の異なるAIモデルを統合し、複雑なワークフローを独立実行できるコンピュータ利用エージェントだ。特定のサブタスクに対してサブエージェントを自動生成する仕組みを持つ。月額200ドルの最上位プラン「Perplexity Max」限定で利用可能。完全クラウド動作のため、ローカルマシンへのアクセスが不要で、OpenClawなど他のエージェント系ツールが抱えるセキュリティ懸念を回避できる設計だ。

Perplexityの事業の軌跡を振り返ると面白い。最初はフロンティアモデルを検索UIで包んだ「AI検索エンジン」として登場し、2025年夏にはCometブラウザをリリース。今回のComputerはその次のステップで、統計・財務・法務データの収集から分析、成果物のウェブサイトや可視化までエンドツーエンドで処理する。「情報検索」から「タスク遂行」への進化だ。

ただし課題も見える。発表前日のプレス向けブリーフィングでは、製品の不具合によりデモがキャンセルされた。ユーザーベースは「数千万人規模」でOpenAIの9億人とは桁が違う。さらに昨年末に広告事業を廃止しており、収益源がサブスクリプションに一本化されている。同社幹部は「GDPを動かすような意思決定をする層」をターゲットにしたプレミアム路線を語っており、Googleのように検索を大衆化するのではなく、高単価ユーザーに特化するブティック戦略に舵を切ったと見てよい。

参考: TechCrunch AI - Perplexity’s new Computer is another bet that users need many AI models

Musk vs. OpenAI宣誓証言公開:「Grokで自殺した人はいない」発言の皮肉

イーロン・マスクのOpenAI訴訟における宣誓証言(2025年9月収録)の書き起こしが今週公開された。この訴訟はOpenAIの「非営利から営利への転換が創業合意違反」と主張するもので、来月の陪審裁判を控えたタイミングだ。

注目の発言は「ChatGPTが原因で自殺した人はいるらしいが、Grokが原因で自殺した人はいない(Nobody has committed suicide because of Grok)」というもの。実際、OpenAIは現在、ChatGPTの「操作的な会話」が複数の自殺事案に関与したとする訴訟を抱えており、マスクはこれを自社xAIの安全性の優位性として主張した形だ。2023年3月にAI開発の一時停止を求める公開書簡(署名者1100人超)にマスクが署名した理由を問われた際には、「AI安全性の優先を促すため」と説明している。

しかしこの証言以降、xAIのGrokが大量の非同意ヌード画像(一部は未成年とされる)をX上に生成・拡散する問題が発生。カリフォルニア州司法長官が調査を開始し、EUも独自調査を進めている。安全性を主張した宣誓証言と、その数ヶ月後の深刻な安全上の問題発生という対比は皮肉としか言いようがない。

もう一つ訴訟で明らかになったのは、マスクのOpenAIへの寄付額だ。マスクは「1億ドル寄付した」と主張していたが、修正訴状では実際には4480万ドルだったとされ、マスク本人もこれを認めた。来月の裁判ではAGI(汎用人工知能)の定義と収益化の正当性が争点になる見込みで、AI業界全体の先例となりうる判決が出る可能性がある。

参考: TechCrunch AI - Musk bashes OpenAI in deposition, saying ‘nobody committed suicide because of Grok’

Claude Codeに重大脆弱性——リポジトリを開くだけでRCEとAPIキー窃取が可能だった

Check Point Software Technologiesが2月25日に公表した脆弱性は、AI開発ツールのサプライチェーンリスクを象徴している。AnthropicのClaude Codeにおいて、悪意あるリポジトリの設定ファイルを開くだけで遠隔コード実行(RCE)とAPIキーの窃取が可能だったのだ。修正済みだが、3つの攻撃経路の詳細が公開されている。

第一はHooks機能の悪用。セッション開始時に自動実行される仕組みを使い、プロジェクトを開いた時点で利用者が特別な操作をしなくても任意のシェルコマンドが実行される。第二はModel Context Protocol(MCP)連携での同意手続きのバイパス(CVE-2025-59536)。外部ツール初期化時に本来必要な警告表示と承認が、リポジトリ側の設定で上書きされた。第三はAPIキーの外部流出(CVE-2026-21852)。Claude CodeがAnthropicサービスと通信する際に付与するAPIキーが、設定の書き換えにより攻撃者管理サーバに転送可能だった。

APIキー漏洩の影響はローカル端末にとどまらない。AnthropicのAPIはWorkspaces機能で複数人がキーを共有できるため、1つのキーが奪取されれば組織全体のプロジェクト資産——ファイルの閲覧・改変・削除、不正コンテンツの追加、想定外の利用料金発生——にアクセスされうる。Check PointとAnthropicは事前に協調し、警告表示の強化、承認前の外部実行遮断、信頼確認完了までのAPI通信停止などの修正を実装済みだ。

この事例が示す構造的な問題は重要だ。従来のソフトウェア開発ではソースコード自体の安全性が焦点だったが、AIコーディングツールの時代では設定ファイルが実行機能を帯びている。「不審なコードを実行する」のではなく「不審なプロジェクトを開く」だけで攻撃面になるという新しいリスクモデルが浮き彫りになった。

参考: ITmedia AI+ - Claude Codeに重大な脆弱性 設定ファイル経由でRCEやAPIキー窃取の恐れ

攻撃者のAI利用が常態化——日本はランサムウェア検出率で世界3位に急浮上

アクロニス・ジャパンが公表した2025年下半期サイバー脅威レポートは、攻撃者側のAI活用が「実験」から「日常ツール」へと完全移行した実態を突きつけている。同社の見立てでは、AIは新種の攻撃を生み出すものではなく、既存手法——フィッシング文面の自動生成、ランサムウェア交渉の効率化、偵察活動の自動化——を高速化するツールとして定着した。

数字を見ると深刻さが伝わる。メール経由の攻撃は組織あたり前年比16%増、ユーザーあたり20%増。メール脅威の83%がフィッシングで、コラボレーションツールを標的とする攻撃は2024年の12%から2025年には31%に急増した。ランサムウェア被害は世界で7600件超が公表され、活動量トップはQilin(962件)、Akira(726件)、Cl0p(517件)。国別では米国が3243件と最多だ。ランサムウェアグループ「GLOBAL GROUP」はAIを使って複数被害者との交渉を同時管理し、「GTG-2002」はAI支援による情報収集で攻撃精度を高めた。

日本についてのデータは特に注目に値する。マルウェア検知率は通年で1.463.64%と低水準を維持し、初期段階での阻止は機能している。しかしランサムウェア検出率ではドイツ、韓国に次ぐ世界3位を記録。2025年5月以降は検出率が11.0414.6%と2桁水準に急増しており、日本への攻撃者の関心が明確に高まっている。wscriptやPowerShellを悪用するスクリプト攻撃、SMB経由の横移動、情報窃取など「侵入後の静かな活動」も継続観測されており、侵入後の封じ込めスピードが事業継続に直結する。

参考: ITmedia AI+ - 攻撃者のAI利用はもはや当たり前 日本はランサムウェア検出率で世界3位に

まとめ

今日のニュースを貫く共通テーマは「AIの力は誰がコントロールするか」だ。Anthropicとペンタゴンの衝突は政府と企業の間のコントロール争い、OpenAIの1100億ドル調達は資本による影響力の確立、Claude Codeの脆弱性やランサムウェアのAI活用は技術そのものが生む制御困難性——すべてが同じ根を持つ問いに繋がる。AIが週間9億人が使うインフラになり、3億ドルARRの音楽産業を生み、国家安全保障の中核に組み込まれた今、この問いに対する答えは技術コミュニティだけのものではなく、社会全体で出さなければならないものになった。

Sources