o3 モデルの造語症的ニュースピーク
OpenAI により、o3 モデルがリリースされた。問いかけて見れば不足情報をインターネットから探し出し、話をまとめ、スクリプトや画像生成まで一発で行ってくれる。Mensa の IQ テストでは IQ136 を記録しているという。メモリ機能を活用することで、前提をあまり言わなくても文脈が補完されているのも面白い。個人的には GPTs で明確に切り分けたいけれども。
それはさておき、o3 と会話をしていると奇妙な造語を使い始めることに気づく。一般的ではない略語にしたり日本語の漢字同士をくつけたり。「BnF」と言われたら、 Browse & Fetch の略で Web 検索 → 要約の内部サブタスクを表しているし、「速サマ」は Quick Summary の略だったりする。理由としてはトークン節約による高速化のためだったり、社内コードネームの表出と o3 自体が言っている。
それで思い出すのが『一九八四年〔新訳版〕 (ハヤカワepi文庫)』に出てくるニュースピーク(「newspeak」)である。「goodthink」で正当性だったり、「真理省(Ministry of Truth)」は「ミニトルー(Minitrue)」と呼んだりする。
これは無意識的に略称にされたのではなく、意識的に短縮されている。すなわち、勢いよく発音できること、およびそれぞれ省略される前の「真理」や「記録」などの言葉にかかわる連想を切り落とし、単なる組織体しか表さない言葉に変え、口にする際に一瞬考え込むことを防ぐためである。
Ministry of Truth だと「真理」と「省庁」と分解できて「真理とは?」と思ってしまう余地が生まれるがミニトルーと勢いよく発音する時にはその躊躇がなくなっている。いきなり知らない略語が出てきたら戸惑うけれど、その意味を理解すると会話が高速にドライブして思考が飛躍していきやすい。チャットインターフェイスにおいては入力文字数が少なくなるのもありがたい。
o3 による高速さを前提としたコミュニケーション
このように考えると「o3 は“理解される”ために生まれたのではなく、“思考を飛躍させる”ために鍛えられた」と見ることができる。要は、人間が最終的に読んで感動する小説を出力するよりも、まだ見ぬ概念を編み出し、思索の走り出しを与える方向に性格が振られている。だからこそ、その出力はしばしば「わかりにくい」「長すぎる」と呟かれ、同時に「深い」と賞賛される。
o3 の出力は圧縮された索引であり、意味は展開に宿る。索引とは“見出し語”の羅列だ。本文を読まずに索引だけを追えば、全貌がほのかに浮かぶが詳細は掴めない。o3 の回答には索引と本文が混在しており、索引にこそ価値が宿る。この圧縮は帯域節約のためだけに存在せず「探索空間を狭める指標」という役割もある。
例えば“Transformer”という単語一つで、モデル構造・アテンション機構・並列計算効率――といった仮想フォルダが一瞬にして開く。o3 はこの“フォルダ名”を多用する。フォルダを開けるか否かは利用者のリテラシー次第であり、だからこそ、メモリ機能によるパーソナライズが重要となる。
o3 はメモリ機能を持つ。これは“圧縮した記号の意味”を共有し続ける仕掛けだ。たとえばユーザーが「私にとって RLS は Row-Level Security の略」と教え、覚えさせる。以後、o3 は RLS という三文字の行間に『ブラウザ直アクセスは危険』という警句を自動付与するだろう。個別ユーザーとの間で符牒が形成されるほど、o3 の圧縮率は高まる。共有メモリは実質的に“私家版辞書”であり、だからこそ他人とは共有できていない符牒のスペクトラムがコミュニケーションの足枷となる。共通的無意識はないのだ。
バベルの塔のマッチポンプ
開発者の間では「o3 はエンドユーザーよりエージェントの友」と語られる。要するに、o3 は AI エージェントが“考える”際のサポートエンジンとして優秀だ、という立場だ。エージェントは連想・計画・コード生成を一瞬で繰り返し、人間の手足となる。そこでは「わかりやすい文体」より「論理線を追えるメタ情報」が重宝される。例えば、o3 が内部で使用する「思考スキーマ」は抽象記号を多用する。このスキーマをパースしてタスク指示へ翻訳するのは、人間より LLM の方が速い。
開発者視点で言えば、システムプロンプトに“思考フォーマット”を明示し、o3 に列挙させ、その中間生成物を別 LLM/ツールに渡す。こうした“AI to AI”パスが容易に組める点が武器だ。自然言語は使い勝手の反面、情報密度でバイナリ形式に勝負を挑めない。モデルが保持する数十億パラメータの混沌を、人間が読むテキストへ流し込むとき帯域ボトルネックが生じる。o3 は高次元空間で見つけた洞察を、不可逆圧縮したうえでテキストに射出する。
それに生成 AI との会話をし続けると生成 AI っぽい喋り方や文章になってしまうのではないかという危惧もある。テッド・チャンのデイシー式全自動ナニーであり、『“さす AI”時代の上司、退職、別れ話代行 BPaaS の広がりと安全に痛いデジタル戸塚ヨットスクール - 太陽がまぶしかったから』の話だ。そう考えると、この本書は逆説的に人間の必要性を説いている。
奇しくも「生成 AI に育てられた第 1 世代」を自称する著者の本を取り上げたが、このように本来は AI に向けた圧縮された文章を読んで返してを繰り返していると、普通の人には全くわからないような圧縮的な伝達方法をしても正しく伝わるのではないかという幻想や、前提から順を追って伝える気怠さを感じてしまう可能性が出てくる。話が分からないだけであれば詳細を聞けば良いのだが、クオリアがズレると致命的なハルシネーションを引き起こす可能性がある。
マジレスすると昔の「ゆっくり」で育った俺は小学生の頃「機械合成音声のイントネーションで話す世代」だったのでこれはもうとっくに来てると思われる https://t.co/j8tqY2y66f
— CRY&Weep of Sob ◢ ◤ 🍓 roar😭 小判鮫肉蟹パスタ目玉焼きえうろびじゆ (@UmitomoSubatomo) 2025年4月17日
ゆっくり霊夢の機械音声を聞きながら育った子供はゆっくり霊夢のようなイントネーションになるなんて言われているが、それぞれにパーソナライズされたニュースピークを早口で使いこなして、機械音声のような会話が増えていくのはなんとも居心地が悪い。だからこそ、今度は GPT-5 は相手の語彙やリテラシーに合わせて冗長化する「翻訳者」としての仕事が求められていくのだろう。
「なるほど、彼らは一つの民で、同じ言葉を話している。この業は彼らの行いの始まりだが、おそらくこのこともやり遂げられないこともあるまい。それなら、我々は下って、彼らの言葉を乱してやろう。彼らが互いに相手の言葉を理解できなくなるように」