OpenAIが人間よりPCを操作できるエージェント機能を搭載したGPT-5.4をリリースしました。一方、Anthropicは米国防総省から「サプライチェーンリスク」に指定され、2億ドルの契約が破談。さらにClaudeがFirefoxで22件の脆弱性を発見するなど、AIを巡る展開が目まぐるしく動いています。


OpenAIがGPT-5.4をリリース — 人間より上手にPCを操作できるエージェント機能を搭載

元記事: GIGAZINE

OpenAIが2026年3月5日に、専門的な業務に特化した最新のフロンティアモデルGPT-5.4をリリースしました。このモデルは推論、コーディング、自律的なエージェントとしてのワークフローを一つのモデルに集約し、ChatGPT、API、Codexを通じて展開されています。同時に公開された「GPT-5.4 Thinking」はより高度な推論を可能にし、「GPT-5.4 Pro」は複雑なタスクで最高の性能を発揮するように設計されています。特に知識労働やプロフェッショナルな実務において高い能力を発揮するよう構築されています。

エージェント機能が飛躍的に向上

GPT-5.4の最大の特徴は、人間より上手にPCを操作できるエージェント機能です。これまでのAIは特定のタスクに対応するに留まっていましたが、GPT-5.4は複数のアプリケーションを横断して自律的にタスクを実行できるようになりました。例えば、メールの確認、スプレッドシートの作成、Webブラウザでの検索など、一連のワークフローをユーザーの指示だけで完結できます。

今日からできること

GPT-5.4はすでにChatGPT、API、Codexを通じて利用可能です。エージェント機能を試すには、以下の手順で進めることができます:

  1. ChatGPT: 最新のGPT-5.4モデルを選択し、PC操作タスクを依頼する
  2. API: エージェントモードを有効にして、複雑なワークフローを定義する
  3. Codex: コード生成とレビューの同時実行で開発効率を向上させる

Anthropicが米国防総省から「サプライチェーンリスク」に指定 — 法廷闘争を宣言

元記事: ITmedia AI+

Anthropicのダリオ・アモデイCEOが、米国防総省から「サプライチェーンリスク」認定書簡を受け取ったと発表しました。監視や自律型兵器へのAI利用制限を巡り交渉が膠着し、実質的な取引排除処分を受けた形です。当初2億ドルの契約を結んでいましたが、AIモデルの軍事利用を巡る意見対立が決定打となりました。アモデイ氏は、この認定が法的に不当だとし、法廷で争う姿勢を示しています。

2億ドル契約が破談へ

当初Anthropicは米国防総省と2億ドルの契約を結んでいましたが、AIモデルの軍事利用を巡る意見対立が決定打となりました。国防総省は自律型兵器や大量国内監視へのAI利用を求めていましたが、Anthropicはこれらの用途に対して制限を課すよう主張しました。

交渉が決裂した結果、国防総省はAnthropicを「サプライチェーンリスク」に指定。これは実質的な取引排除処分を意味します。一方、競合のOpenAIは国防総省の要求を受け入れ、ChatGPTの契約を締結しました。

業界の反応が割れている理由

この事件はAI企業の倫理とビジネスの間の板挟みを象徴しています。一方では、「AIを軍事利用すべきでない」という倫理的観点があり、もう一方では「政府との契約は重要な収益源だ」というビジネス的観点があります。

特に注目すべきは、契約破談後もClaudeの消費者向け成長が続いている点です。TechCrunchの報告によると、Claudeのアプリは現在ChatGPTより多くの新規インストールを記録し、デイリーアクティブユーザー数も増加しています。これは消費者が「倫理的立場を堅持する企業」を支持している可能性を示唆しています。


ClaudeがFirefoxで22件の脆弱性を発見 — AIを活用したセキュリティ監査の新潮流

元記事: TechCrunch AI

Mozillaとのセキュリティパートナーシップにおいて、AnthropicはFirefoxで22件の脆弱性を発見しました。そのうち14件が「高深刻度」に分類されています。この脆弱性発見は、Anthropicが提供する「Red Team」機能を活用して行われました。Red Teamとは、システムの脆弱性を積極的に探し出すセキュリティチームのことです。従来は人間の専門家が行ってきましたが、Claudeを活用することでスピード向上、網羅性、継続的監査が可能になりました。

Red TeamとしてのAI活用

AIを活用したセキュリティ監査は、従来の人間による手法に比べて以下のようなメリットがあります:

  • スピード向上: 2週間で22件の脆弱性を発見
  • 網羅性: 人間では見落としやすいパターンも検出
  • 継続的監査: 24時間体制でのセキュリティチェックが可能

開発者が押さえておくべきポイント

AIを活用したセキュリティ監査は今後、標準的なプラクティスになる可能性が高いです。AnthropicはRed Team APIを提供しており、以下のような形式で利用できます:

from anthropic import Anthropic

client = Anthropic()
response = client.messages.create(
    model="claude-3.7-sonnet",
    max_tokens=4096,
    system="あなたはセキュリティ監査の専門家です",
    messages=[
        {"role": "user", "content": "このコードの脆弱性を分析してください: {code}"}
    ]
)

ただし、AIによる監査は人間によるレビューの代わりになるものではなく、補完的な役割を果たすべきです。


みずほFGの自社LLM「GPT-5.2と同精度」 — 機密データも安全に処理可能

元記事: ITmedia AI+

みずほフィナンシャルグループが、GPT-5.2と同等の精度を持つ自社LLMを開発しました。このモデルはオンプレミスで運用可能で、機密性の高いデータも安全にAI処理できるとしています。みずほFGの自社LLMは、中国Alibabaが開発したオープンモデル「Qwen3-32B」をベースにしています。320億パラメータのモデルは、性能とリソース消費のバランスが良く、企業向けとして適しています。

オンプレミス運用でデータ保護

金融業界で自社LLMが注目される主な理由は、機密性の高いデータを外部に送信せずにAI処理ができる点です。特徴として以下が挙げられます:

  • オンプレミス運用: データが外部に送信されない
  • GPT-5.2同等精度: 一般的な業務で十分な性能
  • 金融業界特化: 金融用語や規制に対応した学習

金融業界のAI導入が加速

みずほFGの動きは、日本金融業界のAI導入が加速していることを示しています。これまでは外部のAPI(ChatGPTやClaudeなど)を利用するケースが多かったですが、機密性の高いデータを扱う金融業界では、自社モデルのニーズが高まっています。

類似の取り組みとして、三井住友FGやMUFGも自社LLMの開発を進めています。金融庁も2025年から金融機関のAI活用に関するガイドラインを策定しており、今後さらに導入が進むと見込まれます。


AIでWeb操作を自動化する「PageAgent」 — 自然言語指示でタスク実行

元記事: GIGAZINE

「PageAgent」は、AIを使って自然言語による指示でさまざまなタスクをウェブページ上で実行できるツールです。ブックマークレットとして登録すればさまざまなページ上で使用できるほか、Chrome拡張機能を使えば複数タブにまたがった操作も可能です。PageAgentの最大の特徴は、複雑なブラウザ操作を自然言語で指示できる点です。例えば、「Amazonでこの商品を買い物カートに追加して、最安値を検索」「このフォームの必要項目をすべて埋めて、送信ボタンを押して」「複数のサイトから価格情報を収集して、比較表を作成」などの指示を日本語で与えるだけで、AIがタスクを自動的に実行します。

今日から試せる使い方

PageAgentは以下の手順で利用できます:

  1. ブックマークレット: 公式サイトからブックマークレットを取得し、ブラウザのブックマークに登録
  2. Chrome拡張機能: Chromeウェブストアから拡張機能をインストール
  3. APIアクセス: 開発者向けにAPIも提供されている

特にChrome拡張機能版は、複数タブをまたいだ操作が可能で、より複雑なタスクに対応できます。例えば、複数のECサイトから情報を収集して、一つのドキュメントにまとめるといった作業も自動化できます。


今日のまとめ

  • OpenAIがエージェント機能を強化したGPT-5.4をリリース
  • Anthropicが米国防総省と対立、サプライチェーンリスク指定で法廷闘争へ
  • ClaudeがFirefoxで22件の脆弱性を発見、AIによるセキュリティ監査が注目
  • みずほFGがGPT-5.2同等の自社LLMを公開、金融業界のAI導入加速
  • PageAgentでAIによるWeb操作自動化が手軽に