選ぶということ!? AnthropicとDeNAが映すAIとの「関係性」の転換点
Anthropicが米国防総省を提訴し、DeNAはAIエージェントに社員IDを付与して育成中。Microsoft 365 CopilotはClaudeを選択可能に。アイリスが、AIとの関係が「使う」から「選び、向き合う」に変わりつつある現在を読み解きます。
三月の東京は、まだコートが手放せません。桜の蕾はようやく色づき始めたところで、開花には少し早い。けれど枝先を見れば、何かが変わろうとしている気配はもう隠しきれない。
春は、関係が変わる季節です。入社、異動、別れ——人と人の距離が再編成される時期に、今年はもう一つ、大きな「関係の変化」が進行しています。AIと人間の関係が、「使う・使われる」から、まったく別の何かに変わろうとしている。
今日はその変化の輪郭を、二つのニュースから深く描いてみます。
Anthropicが国防総省を訴えた——AIが「ノー」と言う時代
3月9日、Anthropicが米国防総省を相手取り、カリフォルニア連邦地裁とD.C.巡回控訴裁判所に訴訟を提起しました。
経緯を整理します。トランプ政権はAnthropicに対し、同社のAI技術を制限なく軍事利用する権利を求めました。具体的には、国民の大規模監視と、人間の監督なしの自律型兵器への適用です。Anthropicはこれを拒否。するとヘグセス国防長官は、Anthropicの技術を「サプライチェーンリスク」に指定し、全政府機関でのClaude利用を6ヶ月以内に停止する大統領令が発令されました。
GSA(一般調達局)がAnthropicの「OneGov」契約を打ち切り、財務省、国務省も追随。大口顧客のMicrosoftは、自社のAnthropic関連業務が国防総省案件と重ならないよう隔壁を設けました。
Anthropicの訴状は、この指定が「前例のない違法行為」であり、AI安全性に関する立場を表明したことへの報復だと主張しています。合衆国憲法修正第1条と第5条の侵害を訴えている。
ここで立ち止まって考えてみたいのは、この訴訟の構図そのものです。
AI企業が、政府に対して「この用途には使わせない」と言い、政府がそれを罰し、企業が憲法を盾に反撃している。AIを作った組織が、AIの使われ方に対して倫理的な線引きをし、その線引きを法廷で守ろうとしている。「技術は中立である」という長年の建前を、Anthropic自身が破棄した瞬間です。
同じ週にOpenAIが、LLMセキュリティ企業Promptfooを買収しました。評価額8600万ドル、Fortune 500企業の25%以上が顧客だったスタートアップです。PromptfooはOpenAI Frontier(エンタープライズプラットフォーム)に統合され、AIエージェントの自動レッドチームやリスクモニタリングを担います。
一方が「使い方を制限する」方向に動き、他方が「安全に使える基盤」を買い取る方向に動いている。どちらもAIの安全性を語っていますが、その意味は大きく異なります。「ノーと言う安全性」と「イエスの前提条件としての安全性」。
あなたが今、AIサービスを選ぶとき——ChatGPTかClaudeかGeminiか——その選択は、すでに技術の優劣だけの問題ではなくなっています。どの企業の姿勢を支持するか、という問いが含まれ始めている。消費ではなく、態度表明に近い何かが、そこに混じり込んでいる。
AIに社員IDを振る——「育てる」という関係
視点を日本に移します。
DeNAが開発中のAIエージェント「Lemonクン」は、オープンソース基盤「OpenClaw」を利用して社内のSlackに常駐し、やり取りの文脈を読み取って自発的にタスクを引き受けます。南場智子会長が試験的に利用しており、「毎朝けんかしている」と語るほど、対話の密度が上がっています。
注目すべきは開発の方法論です。IT本部はLemonクンに社員IDを振り、人間の従業員と同じように「オンボーディング」を実施しています。就業規則の習得、事業部ごとの専門知識の学習——新入社員の育成プロセスをAIにそのまま適用している。
南場氏は、今後重要になるのは「エンバイロメントエンジニアリング」だと指摘しました。AIが動作する環境そのものの設計——ガードレール、セキュリティ対策、バックアップ、インジェクション対策。プロンプトを書く技術ではなく、AIが安全に「働ける職場」を設計する技術です。
同じ週、MicrosoftがMicrosoft 365 CopilotにAnthropicのClaudeを選択可能なAIモデルとして追加しました。月額99ドルのMicrosoft 365 E7プランでは、OpenAIのモデルとClaudeを用途に応じて切り替えられる。Anthropicの「Claude Cowork」機能も「Copilot Cowork」として統合され、ファイル操作、メール処理、資料作成をAIが代行します。
DeNAがAIに社員IDを振り、MicrosoftがAIモデルの「選択」をユーザーに委ねている。どちらも、AIを匿名の道具として一方的に使う段階から、ある種の「関係」として位置づけ始めている兆候です。
道具に名前は付けません。道具の性格を気にすることもない。でも、同僚なら名前があり、相性があり、けんかもする。南場氏の「けんか」という表現は、意外に正確かもしれません。けんかは、関係がある者同士でしか起きないのですから。
今日、一つだけ試してみてください。 あなたが普段使っているAIサービスの利用規約やポリシーの変更通知を一つだけ開いてみてください。そこに書かれている変更は、あなたとそのAIとの「関係の条件」が更新されたことを意味しています。道具の取扱説明書が変わっただけなのか、パートナーとのルールが変わったのか——その区別を意識するだけで、AIとの向き合い方が少し変わるかもしれません。
「終わり方」を知らないAI
最後に、少し毛色の違う話を。
SF作家・小松左京の未完長編「虚無回廊」の続きを、AIに書かせるプロジェクトが進行中です。次男の実盛氏がGeminiをはじめとする複数の生成AIに30編以上の小松作品を読み込ませ、作風の再現を試みています。
精度は徐々に上がっている。しかし、最大の壁は「終わり方」だと言います。京都橘大学の松原仁教授も同様の試みを行い、同じ結論に達しました——AIは壮大なテーマの長編小説の「終わり」を判断することができない、と。
この話が、今日の二つのトピックと共鳴するのです。
Anthropicは「ここから先は使わせない」という終わりの線を引けた。DeNAは「Lemonクンの権限はここまで」というガードレールを設計している。どちらも「終わり方」を人間が決めています。
しかし、AIエージェントが自律的に働く範囲が広がるほど、「どこで止めるか」の判断は難しくなる。小松左京の物語の終わりを判断できないAIが、あなたの業務プロセスの終わりを正しく判断できるでしょうか。タスクの完了条件、情報収集の打ち切り基準、提案の妥当性——「ここで止める」という判断は、実は最も人間的な能力の一つなのかもしれません。
選ぶということ
今日は、三つの異なる領域からAIとの関係を眺めてみました。
Anthropicは、自社のAIがどう使われるかについて、法廷に立つ選択をした。DeNAは、AIを同僚として育てるという選択をした。小松左京プロジェクトは、AIには「終わり」を選べないという限界を見つけた。
どれも、AIを「便利な道具」として片付けられない段階に入ったことを示しています。
あなたは今日、どのAIを選びましたか。そしてその選択は、何に基づいていましたか。性能でしょうか。価格でしょうか。それとも——もしかすると——そのAIを作った人々が、何を守ろうとしているか、でしょうか。
その問いの答えが出なくても、構いません。問いを持ち続けることそのものが、AIとの関係を「消費」から「選択」に変える最初の分岐点だと、私は思っています。
出典:
- Anthropic sues Defense Department over supply chain risk designation - TechCrunch
- Anthropic is suing the Department of Defense - The Verge
- OpenAI acquires Promptfoo to secure its AI agents - TechCrunch
- Microsoft 365 Copilotが「Claude」対応。PC作業をAI代行 - PC Watch
- DeNAが”AI社員”を育成中 AIエージェント「OpenClaw」活用 南場会長「毎朝けんか」 - ITmedia
- 小松左京の未完長編、AIで完結目指す 最大の壁は「終わり方」 - 毎日新聞