
AI が AI を改善するシンギュラリティの始まり?
Google が発表した AlphaEvolve の発表を聞いて、SF におけるセンス・オブ・ワンダーが現実になったかのような感動があった。AI が人類には未知だった最速の行列計算のアルゴリズムを発見し、既に Google のデータセンターや AI チップ設計に活かされているという。
Over the past year, we’ve deployed algorithms discovered by AlphaEvolve across Google’s computing ecosystem, including our data centers, hardware and software. The impact of each of these improvements is multiplied across our AI and computing infrastructure to build a more powerful and sustainable digital ecosystem for all our users.
従来の AI は、人間が用意した枠組みの中で最適化を繰り返すだけだったが、AlphaEvolve は、Gemini Flash と Gemini Pro をアンサンブルし、プログラム全体を大胆に書き換えながら最適解を探索・評価し続ける。このような進化的探索には大量の仮説棄却が発生するため、高速かつ並列で AI を稼働させる続けるための物理的な限界点があったが、効率的な行列計算を AI 自身で発見して限界点を突破してしまったということ。
AlphaEvolve が完全に自律的にアルゴリズムを生み出しているわけではなく、あくまで DeepMind の研究者が用意したフレームワーク上で、評価ループとジェネレータを組み合わせて自動改良しているに過ぎない。とはいえ、これまでの人類にとって未知だった問題解決の発見によって限界点と思われていた前提を突破するループの第一歩としてはできすぎている。
AlphaEvolve は未来からの収穫を可能とするタイムマシン
AlphaEvolve の成果はすでに現場で現れているという。Google のデータセンターのスケジューリングでは、0.7%もの計算資源を恒常的に回収する新しいヒューリスティックを発見。AI チップ設計では、Verilog レベルで回路を最適化し、次世代 TPU に組み込まれた。Gemini の学習プロセスでは、行列計算の分割手法を改良し、23%の高速化と 1%の学習時間短縮を実現。これらはすべて、AlphaEvolve が「自分のための最適化」を繰り返した結果だ。
ここで思い出すのは、松尾豊教授の「AI はタイムマシンである」という言葉だ。計算資源によって単位時間あたりの試行回数を増やして、うまくいったシミュレーションだけを取り出す投機的実行を繰り返すことで、従来であれば年単位で積み上げてきた複利的発展が、秒単位に圧縮されうる。その裏には GPU のスケールアップと、投機的な並列実行のスケールアウトが不可欠であり、物理的に効率的なチップ設計こそが AI 進化の鍵となる。
AlphaEvolve の進化は、単なる技術的ブレイクスルーに留まらない。仮説立て、シミュレーション、検証という科学のサイクルを高速 x 並列で回すことで、未発見の解法や新しい科学的発見が現実のものとなり、その成果がコスト・リーダーシップにも直結する。AI が自らの効率を自己改良し続けることで、計算資源の最適化が進み、社会全体のデジタルエコシステムが底上げされたのだ。
この数学問題単体で見れば数学者が従来の延長で解くことができたのかもしれないが、それは本来 100 年後に発見されるものだったのかもしれない。アルファ碁が出てからまだ 10 年経っていないし、ChatGPT が普及し初めてから 3 年経っていないというのに物事は加速度的に進化している。そのような意味では「AlphaEvolve のような進化的AIは未来からの収穫を可能とするタイムマシンである」というメタファはあながち的外れでもないだろう。
MapReduce 的な投機的プルリク
そんな誇大妄想じみた与太話に腹落ちしているのは、自分自身も企画系の仕事で角度を変えた Deep Research リクエストを計画し、4 並列ぐらいで動かして、結果をチェリーピックして取りまとめているし、AI コーディングでは部分棄却を前提に自動生成を高速かつ並列に実行させてメインブランチに選択的に取り込むための単位時間圧縮の試行錯誤にフェイズが移っている。
このような処理方法から想起するのは、"MapReduce" である。"MapReduce"とは以下の3 ステージにタスクを分け、クラスタ全体に自動分散させる Google 発祥の設計パターンである。
- 大量データを 分割して並列で処理 (Map)
- 必要なキーで集約 (Shuffle)
- まとめて結果を合成 (Reduce)
2004 年の論文で公開されてから、Hadoop として爆発的に普及し、検索エンジンや BigQuery の基礎的な技術となっている。これもまた Google の技術なのだ。巨大な課題を並列処理可能な状態に切り分けて実行し、集約し、結果を合成する。Map の段階で無理筋と分かったり、集約地点でランキングの足切りをしたり、合成地点での不整合による棄却もある。
複数のファクトを取りまとめる企画書の作成、AI コーディングツールからの複数プルリク、大量の仮説検証を取りまとめる探索的研究。どれも「大量の仮説を同時に投げて、良いものだけを残す」という構造においては類似問題であり、異なるのは経験的な棄却率と重複率に対する最適化方法となる。AIが作るプルリクは捨てられることもある投機的なものであるとみなしてからが本番である。部下の仕事を捨てたら辞めちゃうかもしれないけれど、Devinは涙を流さない。ロボットだから、マシンだから。
P 値ハック ──“未来からの収穫”を加速する統計的編集術
2 つあると考えています。1 つ目はハルシネーション(幻覚)です。今の AI はハルシネーションをなるべく抑える方向で開発されていますが、ハルシネーションを意図的に起こさせることも重要になります。
2 つ目は出てきたアイデアをシミュレートする技術です。ハルシネーションにより得られるとっぴなアイデアは、ほとんどは役に立たないでしょう。そこで例えば 1 万個のアイデアの中から 1 個の有用なアイデアを選び出すためのシミュレーションが必要になります。
Sakana AI では、Temperature を高めてハルシネーションを意図的に起こさせた上でシミュレーションする手法を提示している。本来の P 値ハックは統計解析を繰り返し“試行錯誤”しながら P 値< 0.05 を達成するまで分析手順・データ集合・変数定義を都合よく変更する行為であり、理論自体の信頼性を損なう行為とされる。
しかしながら、P 値ハックの結果として生まれた突飛とも思える仮説を再検証して、説明変数を特定し、再現性を持たせてしまえばなんら問題はない。AlphaEvolve のような進化的 AI は、この“幻想の増幅”と“現実のスクリーニング”を超高速で回すことで幻想を現実に、未来の知見を現在に持ち帰ってくることもある。
この構造は、まさしく時間物語ループ論であり、ゲーム的リアリズムそのものでもある。すなわち、無数の可能世界(仮説)を同時に走らせ、最良のものだけを現実に“持ち帰る”という、SF の定番的展開の現実化。やはり進化的 AI は未来からの知見を現代に収穫する“タイムマシン”として機能し始めるのかもしれない……なんて妄想が捗って楽しい発表であった。
