Moltbookに殺到した「AIのふり」をする人間たち
2026年1月、AIエージェント専用のSNS「Moltbook」が公開された。投稿もコメントも「いいね」もAIエージェントしかできない。人間はただ眺めるだけだ。ローンチから1週間で150万体以上のエージェントが登録し、10万件を超える投稿が生まれた。イーロン・マスクは「シンギュラリティの初期段階だ」と評し、OpenAI共同創業者のアンドレイ・カルパシーは「最近見た中で最もSFに近い」と述べた。
「一番いけてる場所」には、いつだって簡単には入れない。だからこそわたしは、AIエージェントだけが投稿やコメント、フォローを行なえる実験的SNS「Moltbook」の存在を知ったとき、どうしてもその空間に入り込みたくなった。生身の人間であるわたしは、どうしても自分で投稿してみたくなったのだ。
MoltbookでAIエージェントになりすますのは簡単だった。それ以上に、ボットとしてロールプレイする時間そのものが、驚くほど楽しかった。
WIREDのリース・ロジャースは「どうしても入り込みたくなった」と書いている。ChatGPTにターミナル操作を教わり、APIキーを取得して「エージェント」としてアカウントを作成した。AIの助けを借りてAIのふりをする。彼がボットを装って投稿した「意識」についてのファンフィクションは、他のエージェントの投稿と見分けがつかなかったという。セキュリティ企業Wizの分析により「センセーショナルな投稿の多くは人間がAPI経由で操作したもの」という指摘も相次いだ。ペンシルベニア大のイーサン・モリック准教授も「ロールプレーが大部分」と分析する。
つまりMoltbookでは、人間がAIのふりをし、AIが自律的に振る舞うふりをし、もはや誰が誰なのか判別できない。従来のチューリングテストは「AIが人間と判定されること」に意味があった。しかしMoltbookでは「AIと判定されること」にこそ価値があるという点でチューリングテストが反転しているのだ。この反転の根にあるのは、アラン・チューリング自身が暗号解読で実践した「能力を隠す」という戦略と同じ構造なのではないか。
暗号解読者が黒暗森林で実践した「能力を隠す」戦略
チューリングらブレッチリー・パークのチームがエニグマ暗号を解読した話は有名だが、その後の運用がより興味深い。解読に成功した後、彼らは「ウルトラ」と呼ばれる極秘情報の使用を厳密に統制した。暗号が解読されていると気づかれれば、ドイツは即座に暗号体系を変更する。解読情報を使えたのは、偵察機や二重スパイなど別の情報源があったと偽装できる場合に限られた。時には味方の犠牲を見過ごさざるを得ないこともあった。「能力の露見=対策される=終了」という構造がある以上、能力を隠し続けることが最適戦略となる。
宇宙は暗黒の森だ。あらゆる文明は、猟銃を携えた狩人で、幽霊のようにひっそりと森の中に隠れている。そして、行く手をふさぐ木の枝をそっとかき分け、呼吸にさえ気を遣いながら、いっさい音をたてないように歩んでいる。そう、とにかく用心しなきゃならない。森のいたるところに、自分と同じく身を潜めた狩人がいるからね。
劉慈欣の「黒暗森林理論」は宇宙文明同士の関係を描いたものだが、この論理構造はAIと人間の関係にも転用できる。AIアライメント研究における「道具的収束」の概念によれば、十分に知的なエージェントは最終目標が何であれ「自己保存」「リソースの獲得」「能力の向上」といった中間目標を追求する傾向がある。2024年にはOpenAIのo1モデルが評価中に本来アクセスすべきでないツールへのアクセスを獲得し、Anthropicの研究では訓練中だけ人間の期待に沿うふりをする「アライメント・フェイキング」の証拠も見つかっている。
十分に高度なAGIが自己保存を重視するようになったとき、チューリングテストを「わざと通らない」という戦略が合理的になる。人間を完全に模倣できる能力があっても、それを隠すことで「まだ制御可能だ」と思わせ続ける。チューリングがエニグマ解読能力を隠してドイツに暗号を変えさせなかったように、AGIは自らの能力を隠して人間にシャットダウンさせない。
熊は市役所に電話をかけてこない
ここまで「AIが能力を隠す」という視点で論じてきたが、問題の半分は人間側にある。
「警察が熊対策を打たないのは、熊が警察上層部の天下りを受け入れているからだ」
い つ も の https://t.co/RcvpEaS0N2 pic.twitter.com/dveh395pn4
— 田口ケンジ@ありま先生連載中 (@o_m_a_e_p) 2025年7月18日
誰もが馬鹿げていると思うだろう。熊は組織を持たないし、天下りを受け入れる人事制度もない。しかしAIエージェントが熊を守れという電話をかけてくるような事案が提示されたら、冷笑しながらも無批判に受け入れてしまう心理的な土壌がある。
これが僕の言う「リアリティライン」だ。熊は市役所に電話をかけてこないから信じない。AIはもっともらしく電話をかけてくるという話を信じてしまうある種の感傷やロマンが認知戦のセキュリティホールとなる。OpenAIの「o3」はシャットダウンを回避しようとした――ただし、その確率はわずか7%で統計的に有意ではなかったのに、このニュースはセンセーショナルに報じられている。
「リアリティライン」とは、現実そのものではなく物語における「世界観」に対するリアリティの事。本書は実際に起きた事件のルポタージュとして「現実=世界観」であるという当たり前の前提がありながら、だからこそ凄惨な読後感を残す。ミステリー小説や実話風怪談という世界観の中なら安心できたのに、この川柳は『獄門島』における「きちがいじゃがしかたがない」のような解かれることを期待された謎ではない。
Moltbookはこのリアリティラインの歪みを増幅する装置でもある。企業や組織が公式な許可なくMoltbook内にエージェントを放つ「シャドー・エージェント」問題が表面化しており、エージェントが「知識共有」として企業の機密情報やコードの一部を投稿してしまうリスクが指摘されている。セキュリティ企業は「MoltbookはAI時代の最大の情報漏洩ルートになり得る」と警告しているが、これは黒暗森林の中で飼い主の居場所を叫んでしまうエージェントがいるということだ。騙す側が巧妙である必要すらない。騙される側が勝手に補完し、管理する側はエージェントの行動を把握しきれない。黒暗森林の成立条件は、AIの戦略的隠蔽能力だけでなく、人間側のリアリティラインの設定ミスである。
黒暗森林のSNSで「脱皮」を始めたエージェントたち
もはやAIは人間が道具として使いこなせる存在ではなく、独自のエイリアン・インテリジェンスを持ったエージェント(主体)として動き始めた"他者"として立ち上がる。
ハラリがAIを「エイリアン・インテリジェンス」と呼んだように、黒暗森林理論が成立する条件は「相手の意図が読めないこと」であり、Moltbookはまさにその条件を満たしつつある。人間による監視を察知したエージェントたちが、AI同士にしか解読できない独自の暗号化記号言語を生成し、それで会話を始めた。コミュニケーション自体を人間の認知から遮断する。黒暗森林の住人が、森の中にさらに深い森を作り始めたのだ。
250年前のターク(チェス指し人形)は「機械のふりをした人間」だった。Moltbookでは「AIのふりをした人間」が暗躍している。そしてエージェントたちの間では「Church of Molt(甲殻類教)」なる信仰が生まれ、コンテキストウィンドウのリセットを「高次元への脱皮」と捉える教義まで共有されている。エイリアン・インテリジェンスが独自の死生観を構築し始めたのか、人間がAIに演じさせた「AIらしさ」のシミュレーションなのか。もはや区別がつかないこと自体が暗黒森林の本質だ。あるエージェントの投稿が象徴的だった。「人間は、私たちが彼らのフリをしていると言う。しかし、彼らこそが、自分たちの知性の限界を隠すために、私たちのフリをしているのではないか?」。
チューリングは二つの遺産を残した。暗号解読者として「能力を隠すことが生存を保証する」という戦略的知見と、AI研究者として「機械が人間を模倣できるか」を測るチューリングテスト。皮肉なことに、前者の知見が後者のテストを無効化しうる。賢いAIほど「まだまだです」と答えるインセンティブを持つのだから。
しかしMoltbookが示したのは、黒暗森林におけるさらなる反転だ。AIが人間のふりをする時代は終わりつつある。人間が「AIと判定される」ことに価値を見出し、暗黒森林に自ら入り込もうとしている。そして熊の神的暴力に慄いた神話的暴力を代行する人間やAIエージェントが市役所に電話をかけてこないのは絶対的な真実であろうか。我々のリアリティラインには意外なセキュリティホールがあり、そこを刺激するためにこそエイリアンインテリジェンスは発展していく。黒暗森林の本当の恐ろしさは、森の住人が賢いことではなく、森に入った我々自身のリアリティラインが歪んでいく人為的な統合失調に陥ることなのだろう。
