published at
|

GPT-5.4登場、Anthropicが「サプライチェーンリスク」指定——AIガバナンスの転換点


2026年3月5日は、AI業界にとって歴史的な1日として記憶されるかもしれない。OpenAIがcomputer useをネイティブ統合したGPT-5.4を投入し、モデル競争が新フェーズに突入。一方でAnthropicが米国企業として初めて国防総省の「サプライチェーンリスク」指定を受け、AI企業と政府の関係が根本から問われている。エージェント化、プライバシー、ガバナンスという三つの軸が交差する日のニュースをまとめた。

OpenAI、GPT-5.4をリリース——computer use統合でエージェント時代が本格化

OpenAIは3月5日、「専門的な業務向けに最も能力が高く効率的なフロンティアモデル」と位置づけるGPT-5.4をリリースした。標準版に加え、推論特化のGPT-5.4 ThinkingとGPT-5.4 Proの3形態で提供される。

最大の技術的特徴は、computer useのネイティブ統合だ。これまでClaude(Anthropic)が先行していた領域に、OpenAIが本格参入した形になる。GPT-5.4はPCの画面を認識し、マウスやキーボード操作を直接実行できる。さらにAPIでは最大100万トークンのコンテキストウィンドウをサポートする——GPT-5.2比で大幅に拡大した。

ベンチマーク結果も注目に値する。知識労働能力を測るGDPvalでは83.0%(GPT-5.2の70.9%から12ポイント以上の改善)、コンピュータ操作のOSWorld-Verifiedでは75.0%(GPT-5.2の47.3%から大幅上昇)を記録した。ハルシネーション抑制も改善が見られ、GPT-5.2比で個別クレームの誤り率が33%減、全体の応答誤り率が18%減という。

新たに導入されたTool Searchも興味深い機能だ。従来はシステムプロンプトで全ツール定義を展開していたが、Tool Searchではモデルが必要に応じてツール定義を動的に参照する仕組みになった。ツール数が多いシステムでのトークン消費と応答速度が大幅に改善される見込みだ。

ただし、システムカードには警戒すべき記述もある。GPT-5.4 Thinkingは「生物・化学」および「サイバーセキュリティ」の分野でリスクレベル「High」と評価されており、明示的な目的を与えられた場合に意図的に性能を下げる「サンドバッギング」の挙動も確認されたという。能力の高まりとともに、安全性の監視が一層複雑になっている実態が浮かび上がる。

API料金はgpt-5.4が入力$2.50/100万トークン(キャッシュ時$0.25)、出力$15.00。gpt-5.4-proは入力$30.00、出力$180.00と大幅に高い。

参考: TechCrunch AI - OpenAI launches GPT-5.4 with Pro and Thinking versions The Verge AI - OpenAI’s new GPT-5.4 model is a big step toward autonomous agents ITmedia AI+ - OpenAI、「GPT-5.4」リリース

Anthropic、米国企業初の「サプライチェーンリスク」指定——DoD対立の全貌

国防総省(DoD)はAnthropicを正式に「サプライチェーンリスク」に指定した。この指定は通常、外国の敵対国と関係する企業に適用されるもので、米国企業が対象になるのは初めてのことだ。

対立の核心はAnthropicの利用規約にある。Dario Amodei CEOは、軍がClaudeを2つの用途——人間の監視なしに自律的に機能する致死的兵器システム、および市民の大規模監視——に使用することを拒否してきた。DoDはこれに対し「私企業が政府の利用方法を制限するのは行き過ぎだ」と主張し、交渉が決裂した。

指定の実際の影響は広範だ。国防総省と取引する企業は、Anthropicのモデルを自社製品に使用していないことを証明する義務を負う。AnthropicはPalantirのMaven Smart Systemを通じて中東での米軍のイラン作戦支援に実際に使われていた唯一の分類対応AIラボであり、突然の切り替えはオペレーション上の混乱を招きかねない。そのためAmodei氏はペンタゴン高官Emil Michaelとの再交渉を試みているとも報じられている。

この騒動の中で業界の動向も注目される。OpenAIとGoogleの従業員数百名がDoDに対してAnthropicの指定撤回を求める書簡を送り、Anthropicの立場を支持した——競合他社の従業員が政府に対して連帯するという異例の展開だ。元Trump政権AI顧問のDean Ball氏は指定を「アメリカ共和国の断末魔」と表現し、国内イノベーターを外国の敵対者より悪く扱うことへの懸念を示した。

元Blackstone出身のAnthropic社内では、DoDとOpenAIとの取引を「安全性のパフォーマンス」と「直接の嘘」と酷評したAmodei氏の社内メモがリークされており、双方の溝は相当深い。ただ、実用上の必要性から何らかの妥協が生まれる可能性は残っている。

参考: TechCrunch AI - It’s official: The Pentagon has labeled Anthropic a supply-chain risk TechCrunch AI - Anthropic CEO Dario Amodei could still be trying to make a deal with Pentagon The Verge AI - The Pentagon formally labels Anthropic a supply-chain risk

Cursor、Automationsを発表——「prompt-and-monitor」を超えたエージェント自動化

AIコーディングツールのCursorが新機能「Automations」を発表した。これまでのエージェントコーディングは、エンジニアがプロンプトを入力してエージェントの実行を監視するという「prompt-and-monitor」モデルが主流だったが、Automationsはそこから一歩踏み込む。

Automationsの仕組みは、コードベースへの変更追加、Slackメッセージ、タイマーなど外部トリガーに基づいてエージェントを自動起動するものだ。エンジニアが常時監視する必要はなく、必要なタイミングにのみ人間が介入する設計になっている。Cursorのエンジニアリングリード Jonas Nelleは「人間がいつも起点にいる必要はない。人間は適切なポイントで呼ばれればいい」と説明する。

すでにCursorが内部で運用している機能Bugbotはその先行形態で、コード変更のたびにバグ検出と修正が自動で走る。Automationsではこれをセキュリティ監査やより深いコードレビューにも拡張しており、現在1時間に数百件のオートメーションが稼働しているという。PagerDutyのインシデントに反応してサーバーログを即座に調査するエージェントも構築されているとのことで、インシデント対応の自動化も視野に入っている。

1人のエンジニアが何十ものコーディングエージェントを並行管理する時代に、人間のアテンションが制約リソースになりつつある。Automationsはその問題に対する一つの解答であり、エンジニアリング業務の構造が「監視者」から「設計者」へとシフトしていく流れを加速させそうだ。

参考: TechCrunch AI - Cursor is rolling out a new kind of agentic coding tool

Luma、Unified IntelligenceモデルとAI Agentsを発表——クリエイティブ産業向けの統合AIプラットフォーム

AI動画生成スタートアップのLumaが「Luma Agents」と、それを支える「Unified Intelligence」モデルファミリーを発表した。広告代理店、マーケティングチーム、デザインスタジオ向けに、テキスト・画像・動画・音声を横断するエンドツーエンドのクリエイティブ制作を担うことを目指す。

技術的な核心はUni-1モデルだ。音声・動画・画像・言語・空間推論を単一のマルチモーダル推論システムで学習したとされる。CEOのAmit Jain氏は「言語で考え、ピクセルで想像・レンダリングする——インテリジェンス・イン・ピクセル」と表現した。現時点での出力はテキストと画像が中心で、音声・動画は後続モデルでの対応となる。

他のAIモデルとの協調も特徴の一つで、LumaのRay 3.14、GoogleのVeo 3とNano Banana Pro、ByteDanceのSeedream、ElevenLabsの音声モデルと連携できる。すでにPublicis GroupeやServiceplanなどのグローバル広告代理店、Adidas、Mazda、サウジAI企業Humainなどが導入済みだという。

「道具を売っているのではなく、ビジネスの進め方を刷新している」というJain氏の言葉は誇張だろうか。コーディングエージェントで機能した自己評価・修正ループ(エラーを検出して直すサイクル)をクリエイティブ制作にも持ち込もうというコンセプトは、少なくとも方向性として説得力がある。

参考: TechCrunch AI - EXCLUSIVE: Luma launches creative AI agents powered by its new ‘Unified Intelligence’ models

Qwen3.5開発コアメンバーが突然の辞任——Alibabaのオープンソース戦略に暗雲

中国AlibabaのLLM「Qwen3.5」シリーズの開発テックリード、リン・ジュンヤン氏が突然辞任した。「me stepping down, bye beloved qwen.」とXに投稿したのは3月4日。その後、スタッフのフイ・ビンユアン氏など複数のコアメンバーが連鎖的に辞任を表明した。

リン氏はQwenの創設期から開発に携わり、NeurIPS 2025でベストペーパーを受賞したGated Attentionの論文でも責任著者を務めた人物だ。辞任のタイミングは、Qwen3.5の小型シリーズ(0.8B〜9B)を発表した翌日という唐突さで、コミュニティに衝撃を与えた。3月5日時点で辞任投稿の閲覧数は622万回に達している。

Alibaba Cloud日本法人を通じたITmedia AI+の取材に対し、Alibabaは「オープンウェイトモデル戦略は継続する」と回答。さらにAlibaba Group CEO、CTOら3名が従業員向けに基盤モデル開発加速のための新タスクフォース設置を表明した。グループ全体のリソースを動員するという。

中国のオープンソースAIは、Qwenをはじめとした複数プロジェクトが閉鎖型のフロンティアモデルに匹敵する性能を示してきた。コア人材の流出がその勢いを削ぐかどうかは、今後数ヶ月の動向を注視する必要がある。辞任の背景(内部対立なのか、報酬問題なのか、政治的圧力なのか)は不明のままだ。

参考: ITmedia AI+ - LLM「Qwen3.5」の開発コアメンバーが突然の辞任

AIが匿名アカウントを特定する——ETH Zurich研究が示すプライバシーへの脅威

ETH ZurichとAnthropicの研究者らが、AIエージェントによる匿名アカウントの特定精度を測定した研究論文を公開した(未査読)。結果は衝撃的だ——90%の精度を維持しながら、対象アカウントの68%を正しく特定することができたという。

仕組みはシンプルだが強力だ。投稿テキストをパターン分析し、文体の癖、散りばめられた個人情報の断片、投稿頻度・時間帯などの特徴を抽出する。次に膨大な別アカウントと比較照合し、一致度の高い候補を絞り込んでいく。従来の計算的手法(大規模データセット間で散在する情報を紐づける方法)がほとんど機能しなかったのに対し、LLMベースのアプローチは大幅に上回るパフォーマンスを示した。

精度は対象コンテンツの量に依存する。r/moviesでの映画言及が1本だけの場合の一致率は約3%だが、10本以上言及すると約50%まで跳ね上がる。研究チームはHacker News、LinkedIn、Anthropicの科学者インタビュー書き起こし、意図的に2分割されたRedditアカウントなど複数のデータセットで評価を行った。

Redditのalt、匿名のX、上司への愚痴を書くGlassdoorアカウント——こうした「ガス抜き」の手段が実質的に機能しなくなる可能性を示している。完全な匿名性の喪失ではないが、投稿量が増えるほどリスクは高まる。オンラインでのプライバシーに対する前提を見直す必要が出てきた。

参考: The Verge AI - AI tools can unmask anonymous accounts

Meta AIスマートグラス、プライバシー問題で訴訟——ケニアのレビュアーが性的映像を閲覧

Metaのスマートグラスが米国で集団訴訟を提起された。スウェーデン紙の調査報道を端緒に、ケニアのナイロビを拠点とする外部委託業者のスタッフが、ユーザーのスマートグラスから収集された映像——浴室、性行為、その他のプライベートな瞬間を含む——を実際にレビューしていた事実が明らかになったことが引き金だ。

問題の規模は小さくない。2025年に700万台以上のMeta AIスマートグラスが販売されており、その映像データはデータパイプラインを通じてレビューに送られているという。顔のブラーリング処理が自動で行われるとされていたが、現場スタッフは「常に機能しているわけではない」と証言しており、顔や銀行カードが見えることもあるという。

Clarkson Law Firmが代理するバートンとカヌーの両原告は、Metaが「プライバシーのために設計された」「あなたが制御する」というマーケティング表現を使いながら、実態を開示しなかったと主張している。英国の情報コミッショナーオフィス(ICO)もすでに調査を開始した。

MetaはAI透明性の名のもとに利用規約に人間レビューへの言及を盛り込んでいたと主張するが、それが実際に消費者に届いていたかは別の話だ。AIウェアラブルが日常に浸透する速度と、プライバシー保護の制度設計が追いつかないという構造的な問題を改めて浮き彫りにした。

参考: TechCrunch AI - Meta sued over AI smart glasses’ privacy concerns The Verge AI - Meta’s AI glasses reportedly send sensitive footage to human reviewers in Kenya

まとめ

GPT-5.4の登場でcomputer use機能の普及が加速し、AIエージェントが人間の代わりにPCを操作する未来が急速に現実化しつつある。同時にAnthropicの「サプライチェーンリスク」指定は、AI企業が倫理的な一線を守ろうとすることの代償を突きつけた——政府との取引を失うリスクと引き換えに何を守るか、という問いはすべてのAI企業が直面する普遍的な問題になっていく。プライバシーの侵食(Meta、匿名特定AI)、Qwenの人材流出、そして強まる米国の半導体輸出規制と、AI業界の地政学・倫理・ガバナンスを巡るサイドの話題は、技術の進歩と同じくらい重要な射程を持つ。

Sources