あの超高性能AI「Claude」を開発するAnthropic(アンソロピック)社が、アメリカで商売できなくなるかもしれない。
2026年2月末、そんな信じられないようなニュースが飛び込んできました。トランプ大統領が同社をSNS上で「極左企業」と名指しで激怒し、アメリカ軍が事実上の取引排除(サプライチェーンリスク指定)へと動いたのです。

原因は、アメリカ国防総省(ペンタゴン)からの「AIの安全ルールを解除して、軍事利用させろ」という要求を、Anthropicがきっぱりと拒否したことでした。そして驚くべきことに、ライバルである「ChatGPT」のOpenAI社は、すぐさまその要求を受け入れて軍と契約を結びました。
これは単なる海外の企業トラブルではありません。私たちが日々仕事や勉強で頼っているAIが、兵器としてどう使われていくのか、そして私たちのデータがどう扱われるのかという、世界の安全と未来に直結する大事件です。
この記事では、AI業界を揺るがしているこの大騒動について、専門用語をできるだけ使わずにわかりやすく解説します。
兄弟のような2つの企業は、なぜ別の道を歩んだのか
「安全性」をめぐる社内での対立

Claudeを開発しているAnthropicの創業者たちは、実は元々ChatGPTを作るOpenAIの中心メンバーでした。ダリオ・アモデイ(現Anthropic CEO)たちは、OpenAIで初期のAI開発をリードする重要な立場にいました。
しかし2021年、彼らを含む7名の上級研究者がOpenAIを辞め、新しい会社Anthropicを立ち上げます。彼らが去った理由は、OpenAIがマイクロソフトから巨額の投資を受け、急速にビジネス重視(利益優先)の姿勢へと変わっていくことへの強い不安でした。

自分たちには、AIをどのように世界に出すべきかという明確なビジョンがあった。もし本当にそのビジョンがあるなら、自分でそれを実行すべきだ。
彼らが作ったAnthropicは、利益を追求しつつも、AIの安全性を法的に優先できる特殊な会社の仕組み(公益法人)を採用しました。そして、AIそのものに倫理やルールを組み込む独自の安全設計を作り上げたのです。
OpenAIの軌跡:安全性よりもスピードと拡大へ

一方のOpenAIは、2022年11月にChatGPTを公開して大ヒットさせて以降、猛スピードでビジネスを拡大していきました。
変化の象徴とも言えるのが、2024年のルール改定です。それまで原則禁止していた「AIの軍事利用」を解禁し、会社の目標を掲げる文章からも「安全に」という言葉をそっと削り取りました。
創業時の理想を追い求めたAnthropicと、急成長の中で姿を変えていったOpenAI。この対照的な二つの道が、2026年2月末の「国防総省の要求」という事件で激しくぶつかることになります。
ペンタゴンの要求と、2つの企業の正反対な決断
アメリカ軍がAI企業に求めた「ルールの撤廃」

2026年2月、アメリカ国防総省(以下、国防省)はAnthropicとの間で大型契約の交渉をしていました。そこで国防省が突きつけたのは、「あらゆる合法的利用を許可してほしい」という要求です。
少し難しい言葉ですが、要するに「国民の大規模な監視や、人間が操作しない自動兵器(完全自律型兵器)にAIを使う際の制限をなくしてほしい」ということでした。
Anthropicはこれまでも軍にAIを提供してきましたが、「米国民の大規模監視」と「人間の関与がない完全自律型兵器」の2つだけは絶対にやってはいけないとルールで定めていました。
国防省はこれに怒り、要求を飲まなければ取引を打ち切る、さらには他の軍事企業にもAnthropicとの取引をやめさせると脅しをかけました。
Anthropicの決断:脅しには屈しない

脅しは私たちの立場を変えない。良心に従って、この要求には応じることができない。
AnthropicのCEOは、この要求をきっぱりと拒否しました。「今のAIは、自動兵器を動かせるほど完璧ではない。人命を危険にさらすことは、良心に照らして絶対にできない」と宣言したのです。
あくまで自分たちが定めた「安全の境界線」を守り抜く姿勢を示しました。
OpenAIの決断:条件付きで軍の要求を受け入れる

Anthropicが要求を拒否したわずか数時間後、OpenAIのサム・アルトマンCEOが動きます。なんと、国防省との契約を電撃的に発表したのです。
OpenAIは、軍が求めた「あらゆる合法的利用」を受け入れました。代わりに、法律の条文を契約書に盛り込んだり、自動兵器に直接AIが組み込まれないような技術的な工夫をしたりと、条件付きで合意する形をとりました。
しかし、多くの専門家がこの決断を批判しています。なぜなら、「合法的利用」を認めたことで、技術的に合法とされやすい「米国民のデータ収集や監視」への道が実質的に開かれてしまったからです。

一目でわかる、2社の対応の違い
両社がどう動いたのか、わかりやすく表にまとめました。
| 比較項目 | OpenAI(GPT / ChatGPT) | Anthropic(Claude) |
|---|---|---|
| 対国防総省 | 契約を結んだ(条件付き) | 要求を拒否した |
| 監視・自律兵器 の扱い | 「合法的利用」として事実上容認 | 絶対に使用禁止とルール化 |
| 政府からの扱い | 契約を勝ち取り、軍から支持される | 使用停止命令を受け、リスク企業に指定される |
| トランプの評価 | 暗黙の支持(非難されず) | 「極左企業」と名指しで激怒される |
| ユーザーの反応 | ChatGPTの不買・解約運動が起きる | アプリがApp Storeで1位に急浮上 |
| 短期的なダメージ | ブランドイメージが大きく下がる | 政府の契約を失い、大金を取り逃がす |
トランプ政権はどう動いたか?
Anthropicへの激しい制裁

トランプ大統領はSNSでAnthropicを名指しで非難しました。「彼らは戦争省(国防省)に自分たちの利用規約を押し付けようとした。許されない失敗だ」として、すべての連邦機関でAnthropicのAIを使うことを即座に禁止するよう命令を下しました。
さらに国防省は、Anthropicを「国家安全保障上のサプライチェーンリスク」に指定しました。これは通常、中国政府とつながりがある疑わしい企業などに使われる厳しいレッテルです。これにより、Anthropicは他の軍事関連企業とも仕事ができなくなる可能性が高まりました。
OpenAIへの静かな支持
対照的に、OpenAIはトランプ政権から一切批判を受けませんでした。OpenAIのトップ層が以前からトランプ政権と良好な関係を築いていたことも影響していると報じられています。
結果として、Anthropicを追い出した国防省にとって、OpenAIは一番都合の良い乗り換え先となりました。
ユーザーはどう反応したか?
Claudeが初めてChatGPTを追い抜く

政府からいじめられているように見えるAnthropicですが、一般の消費者からは熱烈な支持を集めました。騒動の直後、アップルののアプリストアで、ClaudeがChatGPTとGoogleのAIを抜いて初めてダウンロード数1位を獲得したのです。
「自分たちのデータを安全に扱ってくれそうだ」
「倫理を守る企業を応援したい」
というユーザー心理が大きく働いた結果と言えます。Anthropicもこの波に乗って、他のAIからの乗り換えを簡単にする新機能をすぐさま発表しました。
OpenAIへの批判と「ChatGPT離れ」

一方のOpenAIには、世界中から批判が殺到しました。SNSでは「ChatGPTを解約しよう(quit GPT)」という運動が広まり、サンフランシスコの本社前は抗議の落書きで埋め尽くされました。
「安全だと思って使っていたChatGPTが、知らないところで軍事利用のハードルを下げている」という事実に対するユーザーの拒否反応は想像以上に大きかったのです。OpenAIの社内でも、Anthropicの勇気ある行動を支持し、自社の方針を批判する従業員が現れるなど、大きな波紋が広がっています。
これからどうなる?両社のメリットとデメリット
Anthropicが失ったもの、得たもの
Anthropicは目先の巨額の契約金(約2億ドル)を失い、政府関連の仕事をしばらくできなくなるという大打撃を受けました。
しかし長い目で見れば、「世界で最も安全で、倫理を守るAI企業」という他社には真似できない強力なブランドを手に入れました。これは一般のユーザーだけでなく、「情報漏洩やコンプライアンスを気にする一般企業」にとっても、非常に魅力的なポイントになります。
OpenAIが得たもの、失ったもの
OpenAIは、年間数十兆円とも言われるアメリカ国防予算の恩恵を受ける「軍事AIのトップ企業」としての立場を固めつつあります。ビジネスとしては大成功です。
しかし、「身近で便利なAIアシスタント」という親しみやすいイメージは大きく傷つきました。プライバシーを気にするユーザーが、今後も続々とClaudeなど他のAIに乗り換えていくリスクを抱えています。
AIと軍事はもう切り離せないのか?

すでに実戦で使われているAI
実は、AIと軍事の結びつきはすでに後戻りできないところまで来ています。2026年に米軍が行った作戦で、すでにClaudeが情報処理などに使われていたとされています。また、両社ともドローンを音声で操作する技術の開発に関わっていたという報道もあります。
つまり、どのAI企業も軍と全く無関係というわけではないのが現実です。
「合法」という言葉の罠
問題は「合法的な利用ならOK」というルールの曖昧さです。「人間の監督があれば自動兵器でもOK」と言われても、戦場のものすごいスピードの中で、人間がただ形だけ「承認ボタン」を押すような仕組みになってしまえば、実質的にはAIが兵器をコントロールしているのと同じです。
法律やルールの解釈は、その時の政府の都合でいくらでも変わってしまいます。Anthropicはそこを危険視し、OpenAIはそこを受け入れたということです。
おわりに:これは私たちの未来の話です

今回の出来事を「お金儲け主義」対「理想主義」という単純な話で片付けることはできません。どちらの企業も安全性を大切にしていますし、どちらも軍と完全に縁を切ったわけではありません。
一番の違いは、「絶対に譲れないラインをどこに引くか」という覚悟でした。
そして恐ろしいのは、OpenAIが今回「合法なら何でもOK」と受け入れたことで、これが今後のAIと軍事の関わり方の「ゆるい基準(当たり前)」になってしまうかもしれないということです。
AIが戦争の意思決定に深く関わる未来は、もうSF映画の中の話ではなく、すでに始まっています。私たちがどのAIを選び、どの企業を支持するかという日々の選択も、この未来の行方を決める小さな一票になっているのかもしれません。
ちなみに私はClaudeを使うことを選びました😊


コメント