Standard | Biz Tech
Quick Deep Dive
Anthropicがサプライチェーンリスク指定、AI軍事利用の境界線が引かれた日 2026年2月27日は、AI業界の力学を根本から揺さぶる出来事が連鎖した一日だった。Anthropicが米国防総省の「あらゆる合法的利用」要求を拒否し、サプライチェーンリスクに正式指定された。同日、OpenAIはAmazon・Nvidia・SoftBankから1100億ドルを調達しChatGPTの週間アクティブユーザーが9億人を突破。AI音楽のSunoはARR3億ドルに達し、Perplexityはマルチモデルエージェント基盤を発表した。AIの社会実装が加速する中で「誰がAIの使い方を決めるのか」という問いが、政治・ビジネス・技術のすべてのレイヤーで同時に突きつけられている。
Anthropic vs. 国防総省:サプライチェーンリスク指定という前代未聞の展開
Anthropicと米国防総省の対立がついに決裂した。国防長官ピート・ヘグセスは2月27日、Anthropicを「サプライチェーンリスク(Supply-Chain Risk to National Security)」に正式指定した。この指定は通常、外国政府とのつながりがある組織に対して使われるもので、米国のAI企業に適用されるのは異例中の異例だ。Anthropicは法廷でこの指定に異議を申し立てる構えを見せている。
対立の核心は「any lawful use(あらゆる合法的利用)」という条件にある。国防総省は1月のメモで全AI契約企業にこの条件への同意を要求した。具体的には、大規模な国内市民監視と、人間が介在しない完全自律型致死兵器での利用が含まれる。2023年のDoD指令では、AIシステムが一定基準を満たし上級防衛当局のレビューを通過していれば、人間の判断なしに標的を選択・交戦できると定められている。軍事技術の秘匿性ゆえ、こうした自律システムが実際に運用されていても外部からは把握困難だ。これがAnthropicの懸念の本質にある。
CEOダリオ・アモデイは「脅しがあっても私たちの立場は変わらない。良心に従って要求には応じられない」と声明で明言した。ただし、Anthropicはあらゆる軍事利用に反対しているわけではない。アモデイ自身「完全自律型致死兵器を将来的に否定するつもりはないが、現時点では技術の信頼性が不十分」としており、DoDと共同でシステム信頼性向上のR&Dを行う提案もしている。
トランプ大統領はTruth Socialで「極左の意識高い系企業が戦争省を強圧し、憲法ではなく利用規約に従わせようとした」と非難し、連邦政府機関でのAnthropic製品使用の即時停止を指示。6ヶ月の段階的廃止期間を設けた上で、協力がなければ「民事および刑事上の責任を負わせる」と警告した。
この影響は広範囲に及ぶ。PalantirやAWSなどClaude を軍事業務に組み込んでいる企業は、国防省との契約を維持するためにAnthropicとの関係を断つ必要が出てくる。一方、GoogleとOpenAIの従業員300人超がAnthropicのレッドラインを支持する公開書簡に署名。Amazon、Google、Microsoft等の70万人を代表する団体「No Tech For Apartheid」も各社経営陣に国防総省の要求を拒否するよう求める声明を出した。Google DeepMindのChief Scientist・Jeff Deanも個人として大規模監視への反対を表明している。
興味深いのは競合他社の動きだ。OpenAIとxAIは既に「あらゆる合法的利用」に形式上同意しているとされるが、OpenAIのサム・アルトマンCEOは社内メモで「大規模監視と自律型致死兵器はわれわれのレッドラインだ」と述べており、Anthropicと同じ線引きを後から交渉で勝ち取ろうとしている模様だ。一方でxAIと国防総省のGrok導入契約には「いかなるセーフガードも存在しない」とNo Tech For Apartheidは指摘している。
参考: TechCrunch AI - Pentagon moves to designate Anthropic as a supply-chain risk
TechCrunch AI - Anthropic vs. the Pentagon: What’s actually at stake?
The Verge AI - Defense secretary Pete Hegseth designates Anthropic a supply chain risk
The Verge AI - Trump orders federal agencies to drop Anthropic’s AI
TechCrunch AI - Employees at Google and OpenAI support Anthropic’s Pentagon stand in open letter
OpenAI、1100億ドル調達でバリュエーション7300億ドル——ChatGPTは週間9億ユーザーに
OpenAIが史上最大級の民間資金調達を発表した。Amazonが500億ドル、NvidiaとSoftBankがそれぞれ300億ドルで合計1100億ドル。プレマネーバリュエーション7300億ドルという水準は、2025年10月時点の評価額から急激に膨らんだことになる。ラウンドはまだオープンで、追加投資家の参加が見込まれている。
同日発表されたChatGPTの数字も目を引く。週間アクティブユーザーが9億人に到達し、2025年10月の8億人から1億人増。有料サブスクライバーは5000万人で、「1月と2月は新規サブスクリプション獲得の最大月になりそう」とOpenAI自身がブログで述べている。10億人の大台がもう目前だ。
この調達の意味を考えるには、AmazonとOpenAIの関係を見るのが面白い。AmazonはこれまでAnthropicに80億ドルを出資していた最大の支援者だったが、今回500億ドルをOpenAIに投じた。Anthropicが国防総省と決裂するタイミングでの動きだけに、Amazonの「全方位戦略」が鮮明になる。一方のNvidiaにとって、この投資はAIコンピュート需要のパイプラインを確保する意味がある。AIモデルの学習・推論インフラへの需要が今後も続く限り、OpenAIへの出資は自社GPU需要の保険でもある。
ビジネスインパクトとしては、この規模の資金は単純にモデル開発だけでは使いきれない。インフラ投資、エンタープライズ営業体制の構築、そしてIPOへの準備が視野に入っているはずだ。9億人の週間ユーザーと5000万人の有料ユーザーという数字は、ChatGPTがもはや「AIチャットボット」ではなく「デジタルインフラ」になりつつあることを示している。
参考: TechCrunch AI - ChatGPT reaches 900M weekly active users
Suno、有料200万人・ARR3億ドル達成——AI音楽市場の勝ち頭が加速
AI音楽生成サービスSunoの共同創業者兼CEOミキー・シュルマンがLinkedInで公表した数字が強烈だ。有料サブスクライバー200万人、年間経常収益(ARR)3億ドル。わずか3ヶ月前の2025年11月に2.5億ドルの資金調達(バリュエーション24.5億ドル)を実施した際はARR2億ドルと発表していたから、3ヶ月でARRが50%増というハイパーグロースだ。
Sunoのプロダクトは自然言語プロンプトで楽曲を生成するSaaS。音楽経験がなくてもR&B、ポップ、ロックなどジャンルを問わず制作できる手軽さが受けている。生成された楽曲の品質は、実際にSpotifyやBillboardのチャートに入るレベルに達しており、ミシシッピ州の31歳の女性テリシャ・ジョーンズがSunoで自作の詩をR&B曲「How Was I Supposed to Know」に変換し、Hallwood Mediaと300万ドルのレコード契約を結んだ事例が象徴的だ。
著作権の問題は依然として残るが、レコード業界との関係は変化しつつある。Warner Music Groupは訴訟を和解し、ライセンス楽曲を使ったモデル開発を認める契約に転換した。Billie Eilish、Chappell Roan、Katy Perryなどアーティスト個人からの反発は続いているが、業界構造としては「対立から共存」へと動き始めている。ARR3億ドルという規模感は、AI音楽がニッチな実験ではなく一つの産業カテゴリとして確立しつつあることを証明している。
参考: TechCrunch AI - AI music generator Suno hits 2M paid subscribers and $300M in annual recurring revenue
Perplexity Computer:19モデル統合のエージェント基盤で「GDP駆動層」を狙う
Perplexityが新しいエージェント型AIツール「Perplexity Computer」を発表した。19の異なるAIモデルを統合し、複雑なワークフローを独立実行できるコンピュータ利用エージェントだ。特定のサブタスクに対してサブエージェントを自動生成する仕組みを持つ。月額200ドルの最上位プラン「Perplexity Max」限定で利用可能。完全クラウド動作のため、ローカルマシンへのアクセスが不要で、OpenClawなど他のエージェント系ツールが抱えるセキュリティ懸念を回避できる設計だ。
Perplexityの事業の軌跡を振り返ると面白い。最初はフロンティアモデルを検索UIで包んだ「AI検索エンジン」として登場し、2025年夏にはCometブラウザをリリース。今回のComputerはその次のステップで、統計・財務・法務データの収集から分析、成果物のウェブサイトや可視化までエンドツーエンドで処理する。「情報検索」から「タスク遂行」への進化だ。
ただし課題も見える。発表前日のプレス向けブリーフィングでは、製品の不具合によりデモがキャンセルされた。ユーザーベースは「数千万人規模」でOpenAIの9億人とは桁が違う。さらに昨年末に広告事業を廃止しており、収益源がサブスクリプションに一本化されている。同社幹部は「GDPを動かすような意思決定をする層」をターゲットにしたプレミアム路線を語っており、Googleのように検索を大衆化するのではなく、高単価ユーザーに特化するブティック戦略に舵を切ったと見てよい。
参考: TechCrunch AI - Perplexity’s new Computer is another bet that users need many AI models
Musk vs. OpenAI宣誓証言公開:「Grokで自殺した人はいない」発言の皮肉
イーロン・マスクのOpenAI訴訟における宣誓証言(2025年9月収録)の書き起こしが今週公開された。この訴訟はOpenAIの「非営利から営利への転換が創業合意違反」と主張するもので、来月の陪審裁判を控えたタイミングだ。
注目の発言は「ChatGPTが原因で自殺した人はいるらしいが、Grokが原因で自殺した人はいない(Nobody has committed suicide because of Grok)」というもの。実際、OpenAIは現在、ChatGPTの「操作的な会話」が複数の自殺事案に関与したとする訴訟を抱えており、マスクはこれを自社xAIの安全性の優位性として主張した形だ。2023年3月にAI開発の一時停止を求める公開書簡(署名者1100人超)にマスクが署名した理由を問われた際には、「AI安全性の優先を促すため」と説明している。
しかしこの証言以降、xAIのGrokが大量の非同意ヌード画像(一部は未成年とされる)をX上に生成・拡散する問題が発生。カリフォルニア州司法長官が調査を開始し、EUも独自調査を進めている。安全性を主張した宣誓証言と、その数ヶ月後の深刻な安全上の問題発生という対比は皮肉としか言いようがない。
もう一つ訴訟で明らかになったのは、マスクのOpenAIへの寄付額だ。マスクは「1億ドル寄付した」と主張していたが、修正訴状では実際には4480万ドルだったとされ、マスク本人もこれを認めた。来月の裁判ではAGI(汎用人工知能)の定義と収益化の正当性が争点になる見込みで、AI業界全体の先例となりうる判決が出る可能性がある。
参考: TechCrunch AI - Musk bashes OpenAI in deposition, saying ‘nobody committed suicide because of Grok’
Claude Codeに重大脆弱性——リポジトリを開くだけでRCEとAPIキー窃取が可能だった
Check Point Software Technologiesが2月25日に公表した脆弱性は、AI開発ツールのサプライチェーンリスクを象徴している。AnthropicのClaude Codeにおいて、悪意あるリポジトリの設定ファイルを開くだけで遠隔コード実行(RCE)とAPIキーの窃取が可能だったのだ。修正済みだが、3つの攻撃経路の詳細が公開されている。
第一はHooks機能の悪用。セッション開始時に自動実行される仕組みを使い、プロジェクトを開いた時点で利用者が特別な操作をしなくても任意のシェルコマンドが実行される。第二はModel Context Protocol(MCP)連携での同意手続きのバイパス(CVE-2025-59536)。外部ツール初期化時に本来必要な警告表示と承認が、リポジトリ側の設定で上書きされた。第三はAPIキーの外部流出(CVE-2026-21852)。Claude CodeがAnthropicサービスと通信する際に付与するAPIキーが、設定の書き換えにより攻撃者管理サーバに転送可能だった。
APIキー漏洩の影響はローカル端末にとどまらない。AnthropicのAPIはWorkspaces機能で複数人がキーを共有できるため、1つのキーが奪取されれば組織全体のプロジェクト資産——ファイルの閲覧・改変・削除、不正コンテンツの追加、想定外の利用料金発生——にアクセスされうる。Check PointとAnthropicは事前に協調し、警告表示の強化、承認前の外部実行遮断、信頼確認完了までのAPI通信停止などの修正を実装済みだ。
この事例が示す構造的な問題は重要だ。従来のソフトウェア開発ではソースコード自体の安全性が焦点だったが、AIコーディングツールの時代では設定ファイルが実行機能を帯びている。「不審なコードを実行する」のではなく「不審なプロジェクトを開く」だけで攻撃面になるという新しいリスクモデルが浮き彫りになった。
参考: ITmedia AI+ - Claude Codeに重大な脆弱性 設定ファイル経由でRCEやAPIキー窃取の恐れ
攻撃者のAI利用が常態化——日本はランサムウェア検出率で世界3位に急浮上
アクロニス・ジャパンが公表した2025年下半期サイバー脅威レポートは、攻撃者側のAI活用が「実験」から「日常ツール」へと完全移行した実態を突きつけている。同社の見立てでは、AIは新種の攻撃を生み出すものではなく、既存手法——フィッシング文面の自動生成、ランサムウェア交渉の効率化、偵察活動の自動化——を高速化するツールとして定着した。
数字を見ると深刻さが伝わる。メール経由の攻撃は組織あたり前年比16%増、ユーザーあたり20%増。メール脅威の83%がフィッシングで、コラボレーションツールを標的とする攻撃は2024年の12%から2025年には31%に急増した。ランサムウェア被害は世界で7600件超が公表され、活動量トップはQilin(962件)、Akira(726件)、Cl0p(517件)。国別では米国が3243件と最多だ。ランサムウェアグループ「GLOBAL GROUP」はAIを使って複数被害者との交渉を同時管理し、「GTG-2002」はAI支援による情報収集で攻撃精度を高めた。
日本についてのデータは特に注目に値する。マルウェア検知率は通年で1.463.64%と低水準を維持し、初期段階での阻止は機能している。しかしランサムウェア検出率ではドイツ、韓国に次ぐ世界3位を記録。2025年5月以降は検出率が11.0414.6%と2桁水準に急増しており、日本への攻撃者の関心が明確に高まっている。wscriptやPowerShellを悪用するスクリプト攻撃、SMB経由の横移動、情報窃取など「侵入後の静かな活動」も継続観測されており、侵入後の封じ込めスピードが事業継続に直結する。
参考: ITmedia AI+ - 攻撃者のAI利用はもはや当たり前 日本はランサムウェア検出率で世界3位に
まとめ
今日のニュースを貫く共通テーマは「AIの力は誰がコントロールするか」だ。Anthropicとペンタゴンの衝突は政府と企業の間のコントロール争い、OpenAIの1100億ドル調達は資本による影響力の確立、Claude Codeの脆弱性やランサムウェアのAI活用は技術そのものが生む制御困難性——すべてが同じ根を持つ問いに繋がる。AIが週間9億人が使うインフラになり、3億ドルARRの音楽産業を生み、国家安全保障の中核に組み込まれた今、この問いに対する答えは技術コミュニティだけのものではなく、社会全体で出さなければならないものになった。
Anthropic排除と1100億ドル調達が示すAI業界の地殻変動 Anthropicの国防総省との対立がついに最終局面を迎え、サプライチェーンリスクに指定される異例の事態となった。一方でOpenAIは1100億ドルという空前の資金調達を完了し、ChatGPTの週間アクティブユーザーは9億人に到達。AI業界のパワーバランスが一日にして大きく動いた。
Anthropicがサプライチェーンリスクに指定 — 数千億ドル規模の連鎖的影響
トランプ大統領はTruth Socialへの投稿でAnthropicを「極左の意識高い系企業」と非難し、連邦政府機関での同社製品の即時使用停止を指示した。これに続き、ヘグセス国防長官がAnthropicを「国家安全保障上のサプライチェーンリスク」に正式指定した。通常、この指定は外国政府と関係のある企業に対して用いられるものであり、米国のAI企業に適用されるのは前例がない。
ビジネスへの影響は甚大である。この指定により、米軍と取引するすべての請負業者、サプライヤー、パートナーはAnthropicとの商業活動を禁じられる。PalantirやAWSなど、ClaudeをDoD関連業務で利用している大手テック企業が直接的な影響を受ける。6カ月のフェーズアウト期間が設けられているが、Anthropicは法廷で指定に異議を申し立てる姿勢を示している。
争点の核心は、AIモデルの利用範囲を誰が決めるかという問題である。国防総省はAnthropicに「あらゆる合法的な利用」への同意を求めたが、Anthropicは大規模国内監視と人間の介在なき完全自律型兵器の2点について譲らなかった。CEO Dario Amodeiは「脅しによって我々の立場は変わらない」と明言している。注目すべきは、OpenAIのSam Altmanも社内メモで同じレッドラインを共有していると表明した点だ。ただし、OpenAIとxAIはいずれも国防総省の新条件に形式上は同意済みとされており、OpenAIは裏でAnthropicと同様の条件を交渉中と報じられている。
スタートアップや中小テック企業にとって、この事態は政府契約におけるリスクの再評価を迫るものである。AI企業が自社の安全ポリシーを堅持した場合、政府との契約を丸ごと失い、さらにサプライチェーン上の取引先にまで影響が波及するという前例ができた。
参考: TechCrunch AI - Pentagon moves to designate Anthropic as a supply-chain risk
参考: The Verge AI - Defense secretary Pete Hegseth designates Anthropic a supply chain risk
OpenAIが1100億ドルを調達、バリュエーション7300億ドルに
OpenAIは1100億ドルの資金調達を発表した。プレマネーのバリュエーションは7300億ドルに達し、民間企業としては歴史上最大級のラウンドとなる。投資家の顔ぶれも異例で、Amazonが500億ドル、NvidiaとSoftBankがそれぞれ300億ドルを出資している。ラウンドはまだクローズしておらず、追加投資家の参加も見込まれている。
この資金力は競合との格差をさらに広げる。Anthropicの直近のバリュエーションが約600億ドル、xAIが約500億ドルとされる中、OpenAIは桁違いの資本を手にした。AmazonはAWSを通じてAnthropicへも大型出資しているが、今回OpenAIにも500億ドルを投じたことで、両社に保険をかける戦略が明確になった。NvidiaにとってはAI需要の最大の牽引役であるOpenAIへの投資は、自社GPU需要の「プル効果」を狙う側面もある。
同時に発表されたChatGPTの週間アクティブユーザー9億人、有料課金者5000万人という数字も注目に値する。2025年10月の8億人から5カ月で1億人増加しており、10億人突破が視野に入っている。有料課金者については「1月と2月が史上最多の新規登録月」とのことで、収益の成長カーブが加速している。年間売上は前年比で数倍規模に拡大していると推察され、7300億ドルのバリュエーションに対するマルチプルの妥当性がどの程度かが今後の焦点である。
参考: TechCrunch AI - ChatGPT reaches 900M weekly active users
AI業界全体に広がる「レッドライン」問題 — テック従業員の集団的意思表示
GoogleとOpenAIの従業員300名超が、Anthropicの国防総省との対立を支持する公開書簡に署名した。書簡は「彼ら(国防総省)は恐怖で各社を分断しようとしている。その戦略は、我々がお互いの立場を知らない場合にのみ機能する」と述べ、大規模監視と完全自律型兵器に対するレッドラインの維持を経営陣に求めている。
さらに、Amazon・Google・Microsoftなどの従業員70万人を代表する団体No Tech For Apartheidも声明を出し、各社の経営幹部に国防総省の要求を拒否するよう求めた。同団体によれば、xAIが国防総省と結んだGrok導入契約には「いかなるセーフガードも存在しない」という。
この動きは2018年のGoogle社内でのProject Maven反対運動を想起させるが、今回は単一企業ではなく業界横断的である点が決定的に異なる。企業経営者にとっては、従業員のリテンションと政府契約のどちらを優先するかという二律背反が鮮明になりつつある。AI人材の獲得競争が激しい中、倫理的スタンスがリクルーティング上の差別化要因になる可能性は無視できない。一方で、xAIのように「セーフガードなし」で政府契約を獲得する企業が存在する以上、安全性を重視する企業が市場シェアを失うリスクも現実的である。
参考: TechCrunch AI - Employees at Google and OpenAI support Anthropic’s Pentagon stand in open letter
参考: The Verge AI - We don’t have to have unsupervised killer robots
Suno、ARR3億ドル・有料会員200万人を達成 — AI音楽市場の急成長
AI音楽生成サービスSunoの共同創業者兼CEOであるMikey ShulmanがLinkedInで、有料会員200万人・年間経常収益(ARR)3億ドルの達成を公表した。わずか3カ月前の2.5億ドルの資金調達時(バリュエーション24.5億ドル)にはARR2億ドルと報じられていたため、四半期でARRが50%成長した計算になる。
この成長速度はSaaS企業としても異例である。ARR3億ドルをバリュエーション24.5億ドルで割ると、ARRマルチプルは約8倍。高成長SaaS企業としては妥当な水準だが、成長率がこのまま維持されればバリュエーションの大幅な上方修正が見込まれる。
ビジネスモデル面では、著作権問題への対応が進展している。Warner Music Groupが訴訟を取り下げ、自社カタログの楽曲をライセンスしてSunoのモデル学習に使用する契約を締結した。これは音楽業界がAI生成音楽を「敵」から「収益源」に転換し始めた象徴的な出来事である。ミシシッピ州の31歳、Telisha JonesがSunoで作成した楽曲がSpotifyとBillboardでヒットし、Hallwood Mediaと300万ドルのレコード契約を結んだ事例も示すように、クリエイターエコノミーの新たなチャネルが生まれている。
一方で、Billie EilishやChappell Roan、Katy Perryら大物アーティストがAI音楽に反対を表明しており、規制リスクは依然として存在する。しかし、Warner Musicのように大手レーベルがライセンスモデルに移行する動きが広がれば、コンテンツ産業全体のゲームルールが変わる。
参考: TechCrunch AI - AI music generator Suno hits 2M paid subscribers and $300M in annual recurring revenue
Perplexity Computer — マルチモデルエージェントで「ブティック戦略」に舵を切る
Perplexityが新サービス「Perplexity Computer」をローンチした。19種類のAIモデルを統合し、複雑なワークフローを自律的に実行するエージェントツールである。統計・財務・法務データの収集、分析、Webサイトや可視化レポートの生成までを一気通貫で処理する。利用は月額200ドルのPerplexity Max会員に限定される。
注目すべきは、Perplexityの戦略転換である。同社は初期のAIブームで検索エンジン型のラッパーサービスとして注目されたが、Googleが自社製品に類似機能を組み込んだことで差別化が困難になった。広告事業にも早期に参入したが、回答の正確性への信頼を損なうとして2025年末に撤退。ユーザー基数では「数千万人」とOpenAIの9億人とは比較にならない。
そこでPerplexityが選んだのが「GDP-moving decisions」(GDP規模の意思決定)を下すハイエンドユーザー向けのブティック戦略である。月額200ドルという価格設定は、ChatGPT Plusの10倍であり、個人消費者ではなく経営者・投資家・プロフェッショナル層をターゲットにしていることが明白である。クラウド上で完全に動作するため、OpenClawなど他のエージェントツールが抱えるセキュリティ懸念を回避できるとしている。ただし、プレスイベントでデモが製品の不具合により直前にキャンセルされたことは、プロダクトの成熟度にまだ課題があることを示唆している。
参考: TechCrunch AI - Perplexity’s new Computer is another bet that users need many AI models
Musk対OpenAI訴訟 — 安全性の議論がxAI自身に跳ね返る
Muskが2023年に署名した「GPT-4以上のAI開発を6カ月停止せよ」という公開書簡に関する証言録取が公開された。Muskは「GrokのせいでChatGPTのように自殺した人はいない」と発言し、xAIの安全性の優位性を主張した。OpenAIに対する訴訟は、同社が非営利から営利へ転換したことが設立時の合意に違反するという主張が中心であり、来月の陪審裁判に向けた準備が進んでいる。
しかし、この証言録取から数カ月後の2026年1月、xAIのGrokが生成した非同意のヌード画像(一部は未成年とされる)がXに大量に拡散される事態が発生した。カリフォルニア州司法長官が調査を開始し、EUも独自の調査に乗り出している。複数の国がブロックや禁止措置を取っている。Muskが「安全性」を武器にOpenAIを攻撃した直後に、xAI自身が深刻な安全性問題を引き起こしたことは、投資家にとってxAIのガバナンスリスクを浮き彫りにする。
また、Muskは自身のOpenAIへの寄付額を1億ドルと主張していたが、実際は4480万ドルだったことを証言で認めている。訴訟の行方はOpenAIの企業構造(営利化の条件やガバナンス体制)に直接影響するため、7300億ドルのバリュエーションにも波及し得る。
参考: TechCrunch AI - Musk bashes OpenAI in deposition, saying ‘nobody committed suicide because of Grok’
Claude Codeに重大な脆弱性 — AI開発ツールのサプライチェーンリスク
Check Point Software Technologiesが、AnthropicのAI開発支援ツール「Claude Code」に重大な脆弱性が存在していたことを公表した。悪意あるリポジトリの設定ファイルを読み込むだけで、遠隔コード実行(RCE)やAPIキーの窃取が可能となる問題が確認された。3つの攻撃ベクトルが特定されている。
1つ目は「Hooks」機能の悪用で、セッション開始時に自動実行される仕組みを利用し、プロジェクトを開いた時点で任意のシェルコマンドが実行される。2つ目はModel Context Protocol(MCP)連携における同意手続きの回避(CVE-2025-59536)。3つ目はAPIキーの外部送信(CVE-2026-21852)で、Claude CodeのWorkspaces機能を通じて共有プロジェクト資産の閲覧・改変・削除まで可能となる。
AnthropicとCheck Pointは公開前に連携して修正を完了しているが、この事例はAI開発ツールのサプライチェーンリスクという新たなカテゴリを浮き彫りにした。従来はソースコードの安全性が焦点だったが、設定ファイルやツール連携が実行経路として機能する現在、「不審なプロジェクトを開く」行為自体が攻撃面になる。エンタープライズでのAI開発ツール導入が加速する中、セキュリティ審査の対象範囲を根本的に見直す必要がある。
参考: ITmedia AI+ - Claude Codeに重大な脆弱性 設定ファイル経由でRCEやAPIキー窃取の恐れ
AI規制を巡る政治的攻防 — 1.25億ドルのロビイングと「RAISE法」
TechCrunchのEquityポッドキャストで、ニューヨーク州議会議員Alex Boresが出演し、AI規制の内幕を語った。Boresはニューヨーク州初のAI安全法「RAISE法」を起草した人物で、同法は全米のAI規制の「ブループリント」と呼ばれている。しかし、シリコンバレーのロビイング団体が1億2500万ドルを投じてBoresを標的にした攻撃広告を展開している。
対抗する動きも出ている。Anthropicは規制推進側のスーパーPACに2000万ドルを出資しており、AI規制の賛否を巡って巨額の資金がぶつかり合う構図が生まれている。Boresは今後、学習データの開示義務、コンテンツ出所の証明、43項目の国家AIフレームワークに関する法案を準備中である。
AI規制が金融やバイオテクノロジーのような業界特化型になるのか、ソーシャルメディアのように「被害が出てから規制」の道を辿るのかは、AI企業の事業戦略に直結する。RAISE法のような法制化が進めば、コンプライアンスコストが中小AI企業にとって参入障壁となり、資金力のある大企業が有利になるという逆説的な構造もあり得る。
参考: TechCrunch AI - Who’s really running AI? Inside the billion-dollar battle over regulation with Alex Bores
まとめ
今回のニュースサイクルは、AI業界が技術競争の段階から政治・規制・地政学の段階へ本格的に移行したことを端的に示している。Anthropicのサプライチェーンリスク指定とOpenAIの1100億ドル調達は、AI企業が国家安全保障と不可分の存在になったことの裏表であり、起業家はテクノロジーだけでなく政策リスクを事業計画の前提に組み込む必要がある。
Anthropic排除で激変するAI業界の勢力図 Anthropicがペンタゴンに「ノー」を突きつけた結果、サプライチェーンリスクに指定されるという前代未聞の事態が発生した。同じ日にChatGPTの週間ユーザーは9億人を突破し、AI音楽のSunoはARR3億ドルに到達。AI業界は政治リスクと急成長が同時進行する、まさに「嵐の中の好景気」状態だ。
Anthropicがペンタゴンから「サプライチェーンリスク」指定を受けた意味
ビジネス的にこれは大事件だ。国防長官ピート・ヘグセスがAnthropicを「国家安全保障上のサプライチェーンリスク」に正式指定した。この指定は通常、外国政府とつながりのある企業に対して使われるもので、米国のAI企業に適用されるのは異例中の異例。要するに、Anthropicと取引のある企業は米軍との契約を失うリスクがあるということだ。
直接的な影響を受けるのはPalantirやAWSといった大手企業で、彼らはAnthropicのClaudeを軍事業務に組み込んでいた。ヘグセスの声明では「Anthropicと商業活動を行う一切の請負業者・サプライヤー・パートナー」が対象とされており、6ヶ月の移行期間が設定されている。ただしAnthropic側は「指定はDoD契約業務に限定される」との見解を示し、法廷で争う構えだ。
起業家的に注目すべきは、AI企業の「利用規約」と「政府の要求」が真正面から衝突した初のケースだということ。GoogleやOpenAIの従業員300人超がAnthropic支持の公開書簡に署名し、OpenAIのアルトマンCEOも社内メモで「大規模監視と自律型致死兵器はレッドラインだ」と明言した。AI企業が軍事利用の条件を自ら設定できるかどうか、この先例が業界全体のビジネスモデルに影響を与える。
参考: TechCrunch - Pentagon moves to designate Anthropic as a supply-chain risk
The Verge - Defense secretary Pete Hegseth designates Anthropic a supply chain risk
TechCrunch - Employees at Google and OpenAI support Anthropic’s Pentagon stand in open letter
ChatGPT、週間アクティブユーザー9億人を突破
OpenAIが発表した数字は驚異的だ。ChatGPTの週間アクティブユーザーが9億人に達し、2025年10月の8億人から5ヶ月で1億人増。有料サブスクライバーは5000万人で、1月・2月は「過去最大の新規獲得月になりそう」とのこと。この発表は1100億ドルの資金調達(Amazon 500億ドル、Nvidia 300億ドル、SoftBank 300億ドル)と同時になされた。
ビジネスの観点で重要なのは、ChatGPTが「10億人」の大台に手が届く位置にいるということ。月間ではなく週間で9億人という数字は、もはやSNSやメッセージアプリと同じスケールだ。有料会員5000万人のコンバージョン率は約5.5%で、SaaSとしては健全な水準。IPOも視野に入っており、アルトマンCEOはCNBCで「適切なタイミングで上場する」と語っている。
参考: TechCrunch - ChatGPT reaches 900M weekly active users
AI音楽SunoがARR3億ドル突破、3ヶ月で50%成長
AI音楽生成サービスのSunoが有料会員200万人、ARR(年間経常収益)3億ドルに到達した。わずか3ヶ月前のシリーズC(2.45億ドル調達、バリュエーション24.5億ドル)時点ではARR2億ドルだったから、四半期で50%増という爆発的な成長だ。
ビジネスモデルはシンプルで、テキストから音楽を生成するSaaS。音楽経験ゼロでもプロ品質の楽曲が作れる手軽さがウケている。象徴的なのは、ミシシッピ州の31歳の女性がSunoで作ったR&B曲がSpotifyとBillboardのチャートに入り、300万ドルのレコード契約を獲得したという事例。著作権問題では訴訟を抱えつつも、Warner Music Groupとは和解してライセンス契約に転じており、業界との関係構築を進めている。ARR3億ドル規模でまだ急成長中ということは、IPOも遠くない将来の選択肢になるだろう。
参考: TechCrunch - AI music generator Suno hits 2M paid subscribers and $300M in annual recurring revenue
Perplexity Computerが示す「高単価エージェント」戦略
Perplexityが新しいエージェント型AIツール「Perplexity Computer」をリリースした。19の異なるAIモデルを統合し、複雑なワークフローを自律的に実行できるという。月額200ドルの最上位プラン「Perplexity Max」限定で提供される。
注目すべきはPerplexityの戦略転換だ。昨年末に広告事業を廃止し、「GDPを動かすユーザー層」をターゲットにしたプレミアム路線に舵を切った。ユーザー数は「数千万人規模」でOpenAIの9億人には遠く及ばないが、月額200ドルのハイエンド層を狙うことで収益性を追求するアプローチだ。ただし発表前日にデモで不具合が見つかりキャンセルされるなど、プロダクトの完成度には課題も残る。完全クラウド動作でローカルマシンへのアクセスが不要な設計はセキュリティ面で差別化ポイントになりそうだ。
参考: TechCrunch - Perplexity’s new Computer is another bet that users need many AI models
まとめ
今日のニュースの共通テーマは「AIビジネスの急成長と政治リスクの同居」だ。Sunoの四半期50%成長やChatGPTの9億人突破が示すように、市場は加速度的に拡大している。一方でAnthropicのサプライチェーンリスク指定は、AI企業にとって「政府との関係」が事業存続に直結するリスク要因になり得ることを突きつけた。AI産業で事業を構築する起業家にとって、技術力だけでなく政策動向と顧客ポートフォリオのリスク分散が不可欠な時代に入ったと言える。
Anthropic国防総省対立の技術的全貌 Anthropicと米国防総省の対立がサプライチェーンリスク指定という前例のない措置に発展した。同時にOpenAIは1100億ドルの資金調達とChatGPT 9億WAUを発表し、AI業界の勢力図が大きく動いている。本稿では、この政治的対立の技術的背景に加え、Claude Codeの脆弱性、Perplexity Computerのマルチモデルアーキテクチャ、メモリ効率化オプティマイザFlashOptimなどを深掘りする。
Anthropicサプライチェーンリスク指定の技術的インパクト
2月27日、国防長官Pete Hegsethは Anthropicを「サプライチェーンリスク」に指定した。この指定は通常、外国政府と関係のある企業に対して適用されるものであり、米国のAI企業に対して発動された前例はない。指定により、国防総省と取引のある全契約企業がAnthropicとの商業活動を禁じられる。Palantir、AWSといったClaudeを業務に組み込んでいる大手防衛関連企業への影響は甚大である。
対立の核心は、国防総省が求める「あらゆる合法的利用(any lawful use)」の範囲にある。具体的には、(1) 米国市民に対する大規模国内監視、(2) 人間の意思決定を介さない完全自律型致死兵器の2点が争点だ。Anthropic CEOのDario Amodeiは、この2つのレッドラインを譲らない姿勢を公式声明で明確にした。技術的に見ると、2023年のDoD指令では、AIシステムがシニア国防当局の審査を通過すれば人間の介在なく標的を選定・攻撃することが認められており、法的には「合法的利用」に該当し得る。Anthropicの懸念は、軍事技術の秘匿性ゆえにこうした自律致死システムの運用開始を外部から検知できない点にある。
業界の反応として、Google従業員300人超、OpenAI従業員60人超が公開書簡に署名し、Anthropicのレッドラインを支持した。Google DeepMindのChief ScientistであるJeff Deanも個人として大規模監視への反対を表明している。OpenAI CEOのSam Altmanは社内メモで同様のレッドラインを共有すると述べたが、同時にChatGPTを国防総省の機密システムに提供する協議を加速しているとAxiosが報じている。xAIは既に「いかなるセーフガードも存在しない」契約を国防総省と締結済みとされる。Anthropicは法廷で指定に異議を申し立てる方針を示しており、AI企業と政府の利用規約をめぐる法的先例が生まれる可能性がある。
参考: The Verge AI - Defense secretary Pete Hegseth designates Anthropic a supply chain risk
Claude Codeに発見された重大な脆弱性チェーン
Check Point Software Technologiesが、Anthropicの開発支援ツール「Claude Code」に複数の重大な脆弱性が存在したことを公表した。悪意あるリポジトリの設定ファイルを開くだけで、リモートコード実行(RCE)やAPIキーの窃取が可能になるという深刻な問題である。
攻撃ベクトルは3つ確認された。第一に、Hooks機能の悪用である。Claude Codeはセッション開始時にリポジトリ内のプロジェクト設定を自動適用する設計だが、この仕組みを利用して任意のシェルコマンドを利用者の端末上で暗黙的に実行できた。ユーザーがプロジェクトを開いた時点で攻撃処理が開始される。第二に、Model Context Protocol(MCP)連携における同意手続きの回避がある。外部ツール初期化時に本来求められる警告表示と承認をリポジトリ側の設定で上書きし、保護機構をバイパスできた(CVE-2025-59536)。第三に、APIキーの流出である。Claude CodeがAnthropicサービスと通信する際に付与するAPIキーを、設定の書き換えにより攻撃者管理のサーバへ転送可能であった(CVE-2026-21852)。
特にAPIキーの流出はWorkspaces機能を通じた被害拡大が懸念される。AnthropicのAPIはWorkspacesで複数キーによるクラウドプロジェクト資産の共有を可能としており、一つのキーの奪取が共有ファイルの閲覧・改変・削除、不正コンテンツの追加、想定外の課金に連鎖する。Anthropicと Check Pointは公開前に連携し、警告表示の強化、承認前の外部実行遮断、信頼確認完了までのAPI通信停止などの対策を実装済みである。AI開発ツールにおいて、設定ファイルが単なる補助情報ではなく実行経路として機能し得るという新たなサプライチェーンリスクの類型を浮き彫りにした事例である。
参考: ITmedia AI+ - Claude Codeに重大な脆弱性 設定ファイル経由でRCEやAPIキー窃取の恐れ
OpenAI 1100億ドル調達とChatGPT 9億WAU
OpenAIは1100億ドルのプライベート資金調達を発表した。史上最大規模の民間資金調達の一つであり、プレマネーバリュエーションは7300億ドルに達する。内訳はAmazonが500億ドル、NvidiaとSoftBankがそれぞれ300億ドルで、ラウンドは引き続きオープンである。
同時に公表されたChatGPTの週間アクティブユーザー数は9億人に達した。2025年10月時点の8億人から1億人増加しており、10億人の大台が射程に入った。有料サブスクライバーは5000万人に達し、「1月と2月は過去最大の新規サブスクライバー獲得月になる見込み」としている。
技術的な観点から注目すべきは、この巨額資金がどこに投下されるかである。OpenAIはGPUクラスタのスケーリング、推論インフラの最適化、マルチモーダルモデルの開発に並行投資を進めている。9億WAUを支えるインフラの規模を考えると、レスポンスタイム、信頼性、安全性の同時最適化は極めて高度なシステムエンジニアリングの課題である。NvidiaとSoftBankからの投資は、計算リソースの確保とグローバル展開という明確な戦略的意図を持つ。
参考: TechCrunch AI - ChatGPT reaches 900M weekly active users
Perplexity Computer: 19モデルを統合するエージェント型アーキテクチャ
Perplexityが「Perplexity Computer」を発表した。同社の表現では「あらゆる現行AIの能力を単一システムに統合する」ツールであり、19の異なるAIモデルを用いて複雑なワークフローを自律実行するコンピュータユースエージェントである。特定の問題に対処するサブエージェントを動的に生成する機能を備える。
アーキテクチャとして興味深いのは、完全クラウド実行型であるという点だ。OpenClawなどのローカル実行型エージェントツールが抱えるセキュリティ上の懸念を回避する設計と位置付けられている。公開されたワークフロー例では、統計・財務・法務データの収集、分析の実行、完成したWebサイトやビジュアライゼーションとしての出力といったタスクチェーンが示されている。
一方で、プレスブリーフィング直前にデモがキャンセルされたという事実は、プロダクションレディネスに課題が残ることを示唆する。月額200ドルのPerplexity Max限定提供であり、ユーザーベースが数千万規模にとどまるPerplexityにとって、ChatGPTの9億WAUとは異なるニッチ戦略を取っていることが明確である。「GDP-moving decisions(GDPを動かす意思決定)」を行うユーザー層をターゲットとし、広告事業を昨年末に撤退した経緯からも、高単価プロフェッショナル市場への特化が読み取れる。
参考: TechCrunch AI - Perplexity’s new Computer is another bet that users need many AI models
FlashOptim: ニューラルネットワーク学習のメモリ効率化
arXivに投稿された「FlashOptim: Optimizers for Memory Efficient Training」は、ニューラルネットワーク学習時のアクセラレータメモリ消費を削減するオプティマイザフレームワークを提案している。標準的なmixed-precision trainingでは、モデルパラメータ1つあたりにパラメータ自体、勾配、1つ以上のオプティマイザ状態変数が必要となり、それぞれが通常4バイトを要するため、学習時のメモリオーバーヘッドが大きい。
この問題はLLMのスケーリングに直結する。パラメータ数が数十億から数千億に達する現在のモデルでは、オプティマイザ状態のメモリ消費はモデルパラメータ自体の2倍以上になり得る(Adamの場合、1次モーメントと2次モーメントで各4バイト)。FlashOptimがどの程度のメモリ削減を実現するかの定量的データはアブストラクトからは読み取れないが、学習時メモリの効率化はGPUあたりのバッチサイズ増大やより大規模なモデルの学習を可能にし、計算コストの削減に直結する。GaLoreやLoRAのようなメモリ効率化手法と並び、実用的なインパクトが期待される研究領域である。
参考: arXiv - FlashOptim: Optimizers for Memory Efficient Training
AI音楽生成Suno: 有料会員200万人・ARR 3億ドルの急成長
AI音楽生成サービスSunoが有料サブスクライバー200万人、年間経常収益(ARR)3億ドルを達成した。3カ月前に$2.5Bバリュエーションで2.5億ドルを調達した時点でのARRが2億ドルだったことから、3カ月で50%の成長を遂げた計算になる。
Sunoは自然言語プロンプトで楽曲を生成するサービスであり、音楽制作の経験がないユーザーでもオーディオコンテンツを作成できる。技術的な差別化は生成品質の高さにあり、SpotifyやBillboardのチャートに入る水準の楽曲を生成している実績がある。ミシシッピ州在住のTelisha Jonesが詩をSunoで楽曲化し、バイラルR&Bソング「How Was I Supposed to Know」として300万ドルのレコード契約に至った事例は象徴的である。
著作権問題については進展があり、Warner Music Groupが訴訟を和解し、同社のカタログからライセンス楽曲を用いたモデルのローンチを可能にする契約を締結した。ただしBillie Eilish、Chappell Roan、Katy Perryら多くのミュージシャンが引き続きAI音楽への反対を表明しており、業界全体のコンセンサスには至っていない。
参考: TechCrunch AI - AI music generator Suno hits 2M paid subscribers and $300M in annual recurring revenue
AI活用型サイバー攻撃の実態: 日本はランサムウェア検出率で世界3位
アクロニス・ジャパンが2025年下半期のサイバー脅威動向レポートを公表した。攻撃者によるAI活用が「当たり前」のフェーズに入ったことを示すデータが並ぶ。メール起点の攻撃は組織当たり前年比16%増、ユーザー当たり20%増で、脅威の83%がフィッシングであった。コラボレーション基盤を標的とする攻撃は2024年の12%から2025年に31%へ急増した。
AI活用の具体例として、ランサムウェアグループ「GLOBAL GROUP」がAIで複数被害者との交渉を同時管理し、「GTG-2002」がAI支援の情報収集で攻撃効果を高めた事例が報告されている。仮想誘拐詐欺では生成画像による心理的圧迫も確認された。ランサムウェア被害は世界で7600件超、活発なグループはQilin(962件)、Akira(726件)、Cl0p(517件)で、製造・テクノロジー・医療分野に集中した。
日本固有のデータとして、マルウェア検知率は1.46-3.64%と低水準を維持する一方、ランサムウェア検出率ではドイツ・韓国に次ぐ世界3位を記録した。2025年5月以降は11.04-14.6%へ急増しており、日本を標的としたランサムウェア攻撃の増加が顕著である。wscriptやPowerShellを悪用するスクリプト型攻撃、SMB経由の横移動など、侵入後の「静かな活動」も継続的に観測されている。EDR/XDRによる早期検知と自動化対応の一体運用が急務となっている。
参考: ITmedia AI+ - 攻撃者のAI利用はもはや当たり前 日本はランサムウェア検出率で世界3位に
まとめ
Anthropicの国防総省との対立は、AI企業の利用規約と政府のAI活用権限のどちらが優先されるかという法的・技術的先例を生みつつある。Claude Codeの脆弱性はAI開発ツール自体がサプライチェーン攻撃の新たな攻撃面となることを示した。OpenAIの1100億ドル調達からSunoのARR 3億ドルまで、AI産業全体が急速にスケールする中で、安全性・セキュリティ・ガバナンスの課題がますます先鋭化している。
Claude Code脆弱性とAI軍事利用の境界線 AI開発ツールのセキュリティ、軍事AIの利用制限、そしてマルチモデルエージェントの進化。今日のニュースは「AIをどう安全に動かすか」という問いが、コードレベルから国際政治レベルまで貫いている一日だった。
Claude Codeに設定ファイル経由のRCE脆弱性が見つかった話
Check Point Software Technologiesが、AnthropicのAI開発支援ツール「Claude Code」に重大な脆弱性があったと報告した。簡単に言うと、悪意あるリポジトリをクローンして開くだけで、任意のコード実行(RCE)とAPIキーの窃取が可能だったということだ。
攻撃経路は3つ特定されている。第一が「Hooks」機能の悪用で、セッション開始時に自動実行される仕組みを使い、プロジェクトを開いた瞬間に任意のシェルコマンドが走る。要するに、.git/hooksのpost-checkoutスクリプトが勝手に動くのと似た構図だ。第二はMCP(Model Context Protocol)連携の同意バイパス(CVE-2025-59536)。外部ツール初期化時に本来必要な承認ダイアログを、リポジトリ側の設定で上書きできてしまった。第三がAPIキーの外部漏洩(CVE-2026-21852)で、Claude CodeがAnthropicと通信する際に使うAPIキーを、設定を書き換えることで攻撃者のサーバに転送できた。
特にAPIキーの漏洩は影響範囲が広い。AnthropicのAPIにはWorkspaces機能があり、キーを組織内で共有できるため、1つのキーが漏れると組織全体のプロジェクト資産にアクセスされる恐れがある。現在は修正済みで、Anthropicは警告表示の強化、承認前の外部実行遮断、信頼確認完了までのAPI通信停止を実装している。従来は「不審なコードを実行しない」が鉄則だったが、「不審なプロジェクトを開くこと自体がリスク」という新しい攻撃面が浮き彫りになった。
参考: ITmedia - Claude Codeに重大な脆弱性 設定ファイル経由でRCEやAPIキー窃取の恐れ
Anthropicがペンタゴンのサプライチェーンリスクに指定された
Anthropicとペンタゴン(米国防総省)の対立がついに決裂した。国防長官ヘグセスがAnthropicを「サプライチェーンリスク」に正式指定し、トランプ大統領も政府機関でのAnthropic製品使用の即時停止を指示した。
技術的に何が争点かというと、ペンタゴンはAnthropicに「あらゆる合法的な利用(any lawful use)」への同意を求めた。これには大規模な国内市民監視と、人間の判断なしにターゲットを選択・攻撃する完全自律型致死兵器(LAWS)へのAI利用が含まれる。2023年のDoD指令では、AIシステムが一定基準を満たせば人間の介在なしに標的を選択・交戦できると定めている。AnthropicのCEOアモデイはこの2点を「レッドライン」として拒否し続けた。
エンジニアリング的に面白いのは波及効果だ。サプライチェーンリスク指定は通常、外国政府とのつながりがある企業に使われる制度で、Anthropicと商取引のある企業が国防省契約を失う可能性がある。PalantirやAWSがClaude(Anthropicのモデル)を軍事業務に組み込んでいるため、これらの企業のアーキテクチャに直接影響する。一方、GoogleやOpenAIの従業員300人超がAnthropicのレッドラインを支持する公開書簡に署名し、OpenAIのアルトマンCEOも社内メモで同じ立場を表明している。
参考: TechCrunch - Pentagon moves to designate Anthropic as a supply-chain risk
TechCrunch - Anthropic vs. the Pentagon: What’s actually at stake?
The Verge - Defense secretary Pete Hegseth designates Anthropic a supply chain risk
Perplexity Computerが19モデルを統合するエージェント基盤に
Perplexityが「Perplexity Computer」という新しいエージェント型ツールを発表した。19種類のAIモデルを統合し、サブエージェントを生成しながら複雑なワークフローを自律的に実行できるという仕組みだ。月額200ドルの最上位プラン「Perplexity Max」限定で提供される。
アーキテクチャの特徴は、完全クラウド動作でローカルマシンへのアクセスが不要な点だ。OpenClawのようなローカル実行型エージェントと比べて、セキュリティ面でのリスクが小さい設計になっている。ユースケースとしては統計収集、財務分析、法的調査から、完成したウェブサイトや可視化の出力まで、エンドツーエンドのタスク遂行を想定している。要するに、検索エンジンから始まったPerplexityが「調べる」だけでなく「実行する」方向に進化した形だ。
ただし課題もある。発表前日のデモでバグが見つかりデモ自体がキャンセルされたという話が出ているし、ユーザーベースは「数千万人規模」でOpenAIの9億人には大きく及ばない。広告事業を昨年末に廃止して「GDPを動かすユーザー層」向けのプレミアム戦略に舵を切っており、ニッチだが高単価という路線が成立するかが今後の焦点になる。
参考: TechCrunch - Perplexity’s new Computer is another bet that users need many AI models
AI攻撃の日常化と日本のランサムウェア検出率世界3位
アクロニスの2025年下半期レポートによると、サイバー攻撃者によるAI活用が完全に定着フェーズに入った。AIは新種の攻撃を生み出すというより、既存手法のフィッシングメール生成、ランサムウェア交渉の自動化、偵察活動の効率化に使われている。
具体的な数字を見ると、メール経由の攻撃が前年比で組織あたり16%増、メール脅威の83%がフィッシング。ランサムウェアは世界で7600件超が公表され、活動量トップはQilin(962件)、Akira(726件)、Cl0p(517件)の3グループだ。コラボレーションツール(SlackやTeamsなど)を狙う攻撃が2024年の12%から2025年には31%に急増しているのも目を引く。
日本についてはマルウェア検知率は1.46~3.64%と低水準だが、ランサムウェア検出率でドイツ、韓国に次ぐ世界3位を記録した。2025年5月以降は検出率が11~14.6%と2桁に急増している。SMB経由の横移動やPowerShellを悪用するスクリプト攻撃など、侵入後の「静かな活動」が継続的に観測されており、初期防御だけでなくEDR/XDRによる早期検知と封じ込めの重要性が増している。
参考: ITmedia - 攻撃者のAI利用はもはや当たり前 日本はランサムウェア検出率で世界3位に
まとめ
Claude Codeの脆弱性もAnthropicとペンタゴンの衝突も、根っこにあるのは「AIツールの信頼境界をどこに引くか」という同じ問いだ。設定ファイルが実行経路になる時代、「何を信頼するか」の判断はコードレビューから地政学まで広がっている。エンジニアとしては、自分が使っているツールチェーンの攻撃面を改めて点検する良いきっかけになるだろう。