CyborgMix

Trust distortion, not the norm.(正常よりも、ひずみを信じる。)


摩擦は常に人間だった


方程式

司令性のある人間がひとりいれば、かつてチームが必要だったものを今はひとりで作れる。Claude Codeが「何が欲しいか分かっている」「できた」に変える。

逆もまた然り。受け身の人間が同じツールを持っても何も生まれない。ツールは遊休する。

主体性 x AI = アウトプット。ゼロに何を掛けてもゼロ。

これは新しい話ではない。ボトルネックは技術力ではなかった。常に司令性 -- 何を作るか、何を問うか、何を優先するかを知っていること -- だった。AIはその事実を無視できなくしただけだ。

壊れたレイヤー

ある種の人間にとって、ボトルネックはスキルではなかった。意図と実行の間にある社会レイヤーだった。

人間との協働には摩擦がある。エゴ。政治。隠れた抵抗。表面的には同意して裏で止める人間。管理と動機づけと報酬を必要とし、それでも静かに妨害するかもしれない人間。完璧な方向性を示しても、相手が全てを「これは自分にどう影響するか」というフィルターに通す限り、どこにも辿り着かない。

AIにはそれがない。パッシブアグレッションもない。隠された不同意もない。交渉もない。欲しいものを言えば、実行される。S/N比: 1:1

雇えない人材

定番の反論: 「優秀な人間の協力者なら、戦略的な洞察で反論してくれるはずだ。」

理論上はそうだ。実際には、そういう人間は雇えない。高すぎるか、既に自分のことをやっているか、他人のビジョンを実行するために待機しているわけがない。

だから現実的な比較は「自分 + Claude Code」対「自分 + 優秀な共同創業者」ではなかった。「自分 + Claude Code」対「自分 + マネジメントが必要で静かに抵抗するかもしれない凡庸な雇用者」だった。勝負にならない。

反転

司令性。率直なコミュニケーション。曖昧さへの低い耐性。暗黙より明示を好む性質。

人間との協働では、これらの特性は負債になる。嫌われる。表面的には従い、裏で抵抗される。人間の仕組みを学び、会話に気を配り、何年も努力する。噛み合わない。

AIでは、同じ特性が純粋な強みになる。直接的で、具体的で、曖昧さがない -- それがAIとの理想的なやりとりだ。社会的な障害が、操作上の優位になる。

インターフェースが変わった。人間は変わっていない。

補助から拡張へ

AIは人間を阿呆にすると言われる。その批判はベースラインが侵食されることを前提にしている。だが、ある領域 -- 社会的調整、持続的なタスク管理、組織的オーバーヘッド -- でベースラインが元々ゼロなら、侵食されるものがない。スキルを失っているのではない。なかったスキルを得ているのだ。

それが補助技術だ。眼鏡。車椅子。劣った移動手段ではなく、実際に機能する手段。

しかし補正で終わらない。司令性を元々持つ人間は少ない -- そして同調圧力の強い社会では、積極的に潰される。AIは社会規範を気にしない。ただ実行する。その明晰さが途中で潰されることなく、初めて実行に届く。

障害は技術的なものではなかった

代替はよく聞く話だ。AIが労働者を代替し、スキルを代替し、思考を代替する。全員が同じベースラインから始まり、AIがそこから差し引く。

少数の、司令性のあるニューロダイバージェントなオペレーターにとって、AIは差し引かない。意図が初めて、人間レイヤーに壊されることなく実行に到達する。

AIが新しい能力を与えたのではない。常に邪魔だった障害 -- できることと、許されることの間にある社会レイヤー -- を取り除いたのだ。

摩擦は常に人間だった。


English version / 英語版

What to Read Next...