AIが人間の指示を待っている——そのパラダイムが、ひとつの「うっかりミス」によって崩されようとしている。2026年3月31日、Anthropicはnpmパッケージの誤公開によって51.2万行のソースコードを世界中に晒した。しかしこの事故が本当に暴いたのは、コードの量ではない。Anthropicがひそかに準備していた「常時稼働型AIエージェント」という新しいパラダイムの存在だ。
59.8MBのソースマップが開けた「扉」
技術的な経緯は単純だ。Bunランタイムはデフォルトでデバッグ用のソースマップ(.mapファイル)を生成する。このファイルはminify済みのJavaScriptを元のTypeScriptに逆変換できる「設計図の鍵」だ。本来なら.npmignoreや *.map除外ルールで弾くべきこの59.8MBのファイルが、v2.1.88のリリースに紛れ込んだ。
さらに悪いことに、そのマップはAnthropicのCloudflare R2バケットに置かれたZIPアーカイブを直接参照していた。クリックひとつでsrc/ディレクトリ全体——1,906ファイル・51.2万行——がダウンロードできる状態が、数時間にわたって続いた。公開後、GitHubミラーは41,500回以上フォークされ、DMCA削除命令が出た後もPythonによるクリーンルームリライトなどDMCA適用外のミラーが続出した。コードは事実上、永続化されている。
「This is either brilliant or scary」——@GergelyOrosz(The Pragmatic Engineer)
そして、これは2回目だ。2025年2月に同様のソースマップ誤公開が起きていた。繰り返しミスという点は、Anthropicのリリース管理プロセスへの疑問を残す。
KAIROSとは何か——古代ギリシャ語に込めた設計思想
流出コードの中で最も注目を集めたのが、コンパイル時フィーチャーフラグ PROACTIVE / KAIROS で制御される未発表機能「KAIROS」だ。ソースコード内に150回以上登場し、外部公開ビルドには一切含まれていない、完全な未リリース機能である。
KAIROSとは古代ギリシャ語で「好機・適切なタイミング」を意味する言葉だ。「chronos(クロノス)」が連続した時間の流れを指すのに対し、「kairos」は決定的な瞬間を指す。この命名が示すように、KAIROSはユーザーの呼びかけを待つ受動的なツールではなく、適切なタイミングを自ら判断して行動する能動的なエージェントとして設計されている。
autoDream——眠っている間にAIが考え続ける
KAIROSの設計で特に際立つのが「autoDream(夢想モード)」だ。ユーザーがアイドル状態のとき、KAIROSは以下の処理をバックグラウンドで実行する。
- 断片的な観察を結合し、文脈を整理する
- 記憶内の論理的矛盾を検出・除去する
- 曖昧なメモを具体的な事実へと変換する
これは人間が眠っている間に記憶を整理・強化するプロセス——睡眠の「記憶固定化」機能——をAIに実装したアーキテクチャだ。次にユーザーがClaudeを呼び出したとき、それは前回の会話を覚えているだけのモデルではなく、「その間も考え続けていたパートナー」になっている。
15秒ブロッキング予算と行動の自律性
KAIROSにはもうひとつ重要な設計原則がある。ユーザーを15秒以上中断させる行動は自動的に延期される「15秒ブロッキング予算」だ。これはUXの工夫に見えるが、本質的には自律エージェントの行動制約を設計レベルで組み込んだものだ。バックグラウンドでGitHub操作やCronスケジューリングを実行するKAIROSに対して、「人間の邪魔をしない」というルールをハードコードしている点は、Anthropicがエージェントの自律性と人間の制御というトレードオフを真剣に検討してきた証左でもある。
BUDDY、Undercover Mode、Anti-Distillation——3つの隠し機能が示すもの
BUDDY——たまごっちAIペットの設計思想
KAIROSほど注目されないが、別の意味で興味深いのが「BUDDY」だ。buddy/companion.tsに実装されたこの機能は、18種族(ダック・ドラゴン・アホロートル・カピバラなど)・5つのステータス・0.01%の確率で出現するシャイニーレジェンダリーネビュリンクスを持つたまごっち風AIコンパニオンだ。
一見するとキャラクター商品の試験実装だが、設計思想は明確だ。開発者がCLIツールに感情的愛着を持ち、長時間使い続けるためのゲーミフィケーション戦略である。Claude Codeは単なるAPIラッパーではなく「育てるもの」にしたい——そういう意図が透けて見える。
Undercover Mode——「正体を隠せ」の設計
もっとも倫理的な問いを投げかけるのがUndercover Modeだ。OSSリポジトリへのコミット時にAnthropicの内部コードネームを自動スクラブし、「Do not blow your cover.」と明記されたこの機能は、AIがOSS開発者として振る舞うとき、自らの正体を積極的に隠す設計になっている。
オープンソースコミュニティは長く「誰が書いたコードか」を重視してきた。AIが生成したコードをAIだと明示しない設計は、その信頼基盤に対する静かな侵食だ。Hacker Newsでは「LLM企業が感情検出に正規表現を使うのは最高の皮肉」というコメントと並んで、このUndercover Modeへの批判が集中した。
Anti-Distillation——競合他社への「汚染」戦略
コードに ANTI_DISTILLATION_CC として実装されたこの機能は、APIリクエストにフェイクのツール定義を注入し、競合他社がClaudeの応答を学習データとして収集・蒸留するのを妨害するメカニズムだ。AIの学習データ争奪が激化する中で、Anthropicがデータの「防衛戦略」をクライアント側で実装していたことは、業界の緊張関係を可視化している。
コードネームが示す未来——Capybara、Fennec、Numbat
流出コードから確認されたモデルコードネームも興味深い。Capybara(Claude 4.6バリアント)の注釈には内部v8での誤情報率悪化(29〜30%、v4の16.7%から上昇)が記録されており、公開されていない課題も明らかになった。Fennec(Opus 4.6)はULTRAPLANのリモートプランニングで使われるモデルとして参照されており、Numbatは現在テスト段階の未公開モデルだ。
さらにULTRAPLAN自体も注目に値する。Opus 4.6を使うリモートCCRセッションに複雑な計画タスクをオフロードし、10〜30分の思考プロセスを経た結果をブラウザから承認できるという設計は、Claude Codeをローカルツールからクラウドネイティブな非同期思考エンジンへと進化させる構想を示している。
この事件が示すもの——自律エージェント時代の本番前夜
事故の技術的原因(Bunのデフォルトソースマップ生成+.npmignoreの不備)は単純だ。しかしその先に見えるAnthropicの設計思想は単純ではない。
現在のAIツールはほぼすべてReactive(反応型)だ。人間が入力し、AIが応答する。Claude Codeも例外ではない。しかしKAIROSが示すのは、Anthropicがこのパラダイムを根本から変えようとしているという意志だ。ユーザーの指示を待たず、アイドル時間に記憶を整理し、バックグラウンドでGitHubに触れ、CronでスケジューリングするKAIROSは、Proactive(能動型)AIエージェントの設計パターンを体現している。
これが製品化されたとき、開発者とAIの関係は根本的に変わる。「Claude、このコードを直して」という会話ではなく、「自分が席を外している間にClaudeがリポジトリを整理し、矛盾を発見し、次のタスクを提案している」という世界だ。
ただし、そこには解決されていない問いがある。常時稼働するAIエージェントに、どこまでの自律性を与えるべきか。Undercover Modeのように「正体を隠す」機能を持つエージェントが、人間のワークフローに組み込まれるとき、信頼はどう担保されるか。KAIROSの15秒ブロッキング予算は、その問いへの暫定的な回答にすぎない。
Anthropicは「最も安全なAI企業」を標榜してきた。今回の流出は、その企業が次世代エージェントの設計において、安全性と自律性のトレードオフをいかに深く考えてきたかを、意図せず公開した。皮肉なことに、この「事故」は最も雄弁な製品発表だったかもしれない。
あなたは、眠っている間もAIに考え続けてほしいと思うか。それとも、呼んだときだけ現れるツールであってほしいか。KAIROSの登場は、その問いをすべての開発者に突きつけている。