310億円の契約を蹴ったAI企業がApp Storeで1位に。Anthropicと国防総省の対立が、AI業界全体の方向性を問い直している。
Anthropicと国防総省の交渉決裂 — 310億円の契約より倫理を選んだ代償と反響
元記事: GIGAZINE
Anthropicとアメリカ国防総省が進めていた2億ドル(約310億円)規模のAI契約交渉が2026年2月末に決裂した。国防総省はClaudeを機密システムで使い、アメリカ市民に関する大量データの分析や完全自律型兵器への適用を求めていた。Anthropicはこれを拒否。トランプ大統領はAnthropicを「サプライチェーンリスク」に指定し、全政府機関に関係断絶を指示した。直後にOpenAIが国防総省との契約を締結している。
なぜAnthropicは310億円を断ったのか
Anthropicの利用規約(Acceptable Use Policy)は軍事・監視目的の使用を制限している。国防総省が求めたのは、この制限の全面撤廃だった。具体的には、市民データの大量分析と完全自律型兵器への適用という2点が最大の争点となった。
Anthropicにとってこれは単なるビジネス判断ではない。同社は「AIの安全性」を企業の存在意義として掲げており、ここで譲歩すれば創業理念そのものが崩壊する。結果として、一夜にして政府市場から完全に締め出される事態となった。
ClaudeがApp Store 1位に — 「倫理で選ぶ」消費者の声
興味深いのは市場の反応だ。政府からの排除を受けて、ClaudeはApp Storeダウンロードランキングで1位に浮上した。TechCrunchやAxiosによれば、ユーザーがAnthropicの姿勢を支持した結果とみられている。
一方、OpenAIは国防総省との契約を即座に獲得。CEOのサム・アルトマン氏自身が「急いだ判断で、見た目がよくない」と認めている。AI企業にとって「軍事利用を許可するか否か」が、ブランドポジショニングの分水嶺になりつつある。
開発者・企業が今すぐ確認すべきこと
今回の事態は、AIプロバイダが一夜にして利用不可になるリスクを実証した。政府向けSaaSを開発するチームは、モデルプロバイダの分散(OpenAI、Google、Anthropicの併用)やモデルアグノスティックな設計が必須になる。LiteLLM(pip install litellm)のようなプロキシレイヤーを挟み、バックエンドモデルを切り替え可能にする設計を検討すべきだ。また、利用規約の変更通知を自動監視する仕組みを導入し、プロバイダのポリシー変更に即座に対応できる体制を整えておくことも重要になる。
Alibaba発「CoPaw」がオープンソース化 — OpenClaw風AIアシスタントがMCP対応で登場
元記事: GIGAZINE
AlibabaのAI部門が開発したパーソナルAIアシスタント「CoPaw」をオープンソース化した。Windows・macOS・Linuxに対応し、ローカルAIモデルを実行して各種タスクを処理できる。MCP(Model Context Protocol)に対応しており、ClawHubで公開されているスキルを導入して機能拡張が可能だ。
MCPエコシステムの拡大が意味すること
CoPawの注目点は、MCP対応のデスクトップAIアシスタントがオープンソースで登場したことだ。MCPはAnthropicが提唱したAIとツールを接続するオープンプロトコルで、ChromeのWebMCP(後述)やClaude Codeなど採用が広がっている。
CoPawがClawHubのスキルを利用できるということは、一度作られたスキルが複数のAIアシスタント間で再利用できるエコシステムが形成されつつあることを示す。これは「AIアプリストア」の原型ともいえる動きだ。
ローカルAI実行の選択肢が広がる
CoPawはローカルでAIモデルを動かす設計のため、データをクラウドに送信せずに利用できる。企業の機密情報を扱う場面や、プライバシーを重視するユーザーにとって有力な選択肢になる。Ollamaとの連携でLlama系モデルをローカル実行し、MCPスキルで機能を拡張する使い方が想定される。GPUを搭載したPCであれば、7Bクラスのモデルなら十分実用的な速度で動作するため、個人開発者にとっても現実的な選択肢だ。
WebMCPがChrome早期プレビューで公開 — ブラウザとAIをつなぐ新標準の幕開け
元記事: Hacker News
GoogleのChromeチームがWebMCP(Web Model Context Protocol)の早期プレビュー版を公開した。MCPをブラウザネイティブに統合するもので、Webサイトが構造化されたコンテキスト情報をAIモデルに提供するための標準APIを定義する。Hacker Newsでは303ポイント・171コメントと高い注目を集めている。
そもそもWebMCPとは何か
MCPは「AIがツールやサービスと会話するための共通言語」だ。これまでAIがWebサイトの情報を取得するにはスクレイピングが必要だったが、WebMCPではサイト側がAI向けにデータを構造化して公開できるようになる。
たとえば、ECサイトがWebMCPに対応すれば、AIアシスタントに「一番安い商品を探して」と頼んだとき、サイトが直接AIにデータを渡せる。SEOの構造化データ(schema.org)のAI版と考えるとわかりやすい。
HNコミュニティの反応 — 「MCPは本当に必要か」という議論
同日にHacker Newsで388ポイントを獲得した記事「When does MCP make sense vs CLI?」が示すように、MCP自体への懐疑論も根強い。「既存のCLIツールやAPIで十分」「プロトコルの乱立は開発者の負担」という意見と、「AIファーストのWebにはブラウザネイティブな標準が必要」という賛成意見が拮抗している。
GoogleがChromeで推進することで事実上の標準になる公算は高いが、開発者の採用速度が鍵を握る。
Gemini 3.1 Pro登場 — 「考えるAI」から「働くAI」への転換点
元記事: ITmedia AI+
Googleが最新AIモデル「Gemini 3.1 Pro」をリリースした。従来の思考力強化に加え、エージェント実行能力を大幅に向上させたのが最大の特徴だ。複雑なタスクを分解・計画し、ツールを使い分けながら自律的に完遂する能力が飛躍的に改善されている。Google AI StudioおよびVertex AI経由で即日利用可能で、google-genai SDKの最新版でアクセスできる。
Function Callingの精度向上がもたらす実用的インパクト
開発者にとって最も重要な変更は、Function Calling(ツール使用)の精度向上とマルチステップ推論の安定性だ。これまでエージェント系タスクではClaude 3.5やGPT-4oが優勢だったが、Gemini 3.1 Proは複数ツールの連鎖実行でのエラー率を大幅に削減した。
google-genai SDKの最新版(pip install -U google-genai)でアクセス可能。Vertex AI Agent Builderとの統合が強化されており、RAGパイプラインやカスタムツール定義のワークフローが簡素化されている。
Google AI Studioで今日から試せる
無料で試すならGoogle AI Studio(aistudio.google.com)が最速だ。「Build with Gemini」セクションからエージェント機能を試せる。LangChainのChatGoogleGenerativeAIクラスを使えば、既存アプリケーションへの組み込みもスムーズに行える。体系的に学ぶならGoogle公式の「Generative AI Learning Path」(Cloud Skills Boost)がおすすめだ。
AIはフェイクコンテンツを見分けられるのか — 12種類のAIサービスをテストした結果
元記事: GIGAZINE
ニューヨーク・タイムズが、AIで生成されたフェイクコンテンツを検出する12種類のAIサービスについて検証結果を公開した。AI生成画像・動画の品質が急速に向上するなか、「そのコンテンツは本物か」を判定する技術の実力が問われている。テスト対象にはDALL-E、Midjourney、Stable Diffusionなど主要モデルの生成物が含まれ、検出精度には大きなばらつきがあることが明らかになった。
なぜフェイク検出が今重要なのか
AI画像生成の進化により、プロの写真家でも見分けがつかないレベルの画像が数秒で作れるようになった。選挙、紛争、災害報道など社会的影響の大きい場面でフェイク画像が悪用されるリスクは、もはや仮定の話ではない。先月のイラン情勢を巡っても、SNS上で複数のAI生成画像が拡散されたと指摘されている。フェイク検出技術の信頼性は、報道機関だけでなく一般ユーザーにとっても切実な課題になりつつある。特にSNSでの拡散速度を考えると、リアルタイムに近い速度で検出できる技術の必要性が高まっている。
検出精度のばらつきが示す課題
12種類のサービスをテストした結果、検出精度には大きなばらつきがあった。特定のAIモデル(DALL-E、Midjourney等)で生成された画像に強いサービスがある一方で、最新モデルの出力には対応できていないケースも報告されている。「AIでフェイクを作り、AIでフェイクを検出する」いたちごっこの構図が鮮明になった。
メディア関係者や情報の真偽を確認したい一般ユーザーにとって、単一のツールに頼るのではなく複数の検出サービスを併用するアプローチが現時点では最も実用的だ。