炊飯器を使うのにかまどの経験が必要か?|AI禁止で失う成長の差(2026.3.31)

序章:炊飯器を使うのにかまどの経験は要らない

ある企業が、新人エンジニアにAIツールの使用を禁じた。AIに任せたコードに800件以上の指摘が積み重なり、本人がその内容をまったく理解できていなかった。だから禁止にした、という理由によるものだ。

しかし、本当に問題はAI自体なのだろうか?
いや、問題はAIではない。問題は、AIの使い方を教えられなかった側にあるのだ。
「間違うからAI禁止」というのは、教育側がラクをしたいだけに過ぎない。必要なのは、正しいAIの使い方を共有することだ。

炊飯器で米を炊くを炊くために、まずはかまどで米を炊く経験が必要なのか?
現代でほとんどの人がかまどで米を炊いた経験は無いはずだ。しかし、現代では誰も炊飯器での炊飯に失敗しない。むしろ、かまどの時よりも多くの人が、簡単に、手間をかけずに米を炊くことができている。
必要なのは「炊飯器の正しい使い方を知っている」ことだ。

つまり、これからのマネジメントに必要なのは、AIを禁止することではなく、AI社会を前提に「業務と教育」を組み立てることにある。

講座バナー

第1章:AIは「シゴデキ部下」である

優秀な部下は仕事が速い。指示すれば大量のアウトプットを返してくる。
しかし、だからといって丸投げしていいわけではない。
部下の成果物に最終的にサインするのは上司であり、その責任を取れるのは仕事の内容を理解している人間だけだ。

AIも同じ構造を持っている。
AIは平気で嘘をつく。もっともらしい文章を生成しながら、事実と異なる情報を混入させる。コードを書かせれば、一見動きそうで実は根本的に間違っているものを出してくることがある。冒頭の新人エンジニアの話は、まさにこれだ。
AIの出力を「神様の答え」として鵜呑みにした結果、800件の指摘が積み上がるまで誰も気づかない、という結果になる。

しかし、そのことをもって「AIは使えない」と断じるのは浅はかだ。
「AIは優秀な人が賢くサボるためのツールであって、無能な人がなんでも丸投げしたらやってくれるお手伝いロボットではない」
この言葉が核心を突いているのは、AIの非対称性を正確に言い当てているからだ。基礎のある人間を加速し、基礎のない人間の空洞を拡大する。その非対称な力こそが、AIという道具の本質である。

管理職が部下を使いこなすには、その業務内容を理解して、必要なときに適切な指示や修正ができなければならない。
AIを使いこなすにも、扱う分野の基礎知識と、出力を検証できる目が前提条件になる。
「AIを禁止する」のではなく、「AIという部下の使い方を教える」のが、本来の教育のあり方だ。


第2章:道具が変わるとき、社会が変わる

人類は常に、道具とともに進化してきた。
太古の昔、人間は洞穴に住んでいた。やがて壁と屋根による住宅を建てることを覚え、トイレが生まれ、風呂が生まれ、キッチンが生まれた。
そのベースの変化の上に、都市が生まれ、文明が積み上がった。

自動車が登場したとき、何が起きたか。人間の「歩く能力」は相対的に衰退した。
しかし代わりに、人間はより遠くへ行けるようになった。物流が変わり、経済圏が変わり、郊外という概念が生まれた。
インターネットが登場したときも同じだ。記憶力や手書きの能力は相対的に低下したかもしれないが、情報の民主化が起き、ビジネスモデルが根本から変わった。

そして毎回、こう言う人々がいた。「歩く力を失う」「手書きの思考力が失われる」「計算力が落ちる」——。
しかし結局、社会のベースは変わった。変化を拒否した者は、次の積み上げに参加できず、先に進む権利を手放したのだ。

AIも同じように優れた「道具」なのだ。たしかに、「言語を自分で生成する能力」は多少衰退するかもしれない。
しかしその代わりに、人間はより深いことを考え、より遠くへ思考を届けられるようになる可能性がある。
ベースが変わることを否定していると、そこから先のものを得ることができなくなる。
これはAIの問題ではなく、文明の進化の構造そのものだ。


第3章:優秀な人間が賢くサボるか、飛躍するか、その両方か

「AIを使えば、誰でも良い仕事が完成できる」——それは大きな誤解だ。

生成AIは、ユーザーが喜ぶ答えを出そうとする構造を持っている。答えの候補AおよびBのうち、Aが正解だとしても、ユーザーがBを喜びそうならBを答えとして提供することがある。
ユーザーがAIの出してきた答えを見て「これは違う」と判断して、修正できれば問題ない。しかし、その判断・修正能力がないユーザーが使えば、ひたすら間違ったものが積み上がることになる。

スマホで文章を作るときに、勝手に漢字を変換してくれるからといって、漢字の勉強をしなくていいわけではない。同音でも文脈に沿った文字があるからだ。それこそ「漢字」「感じ」「幹事」などの使いようは、文脈からの判断となる。
ある程度の知識があるから、ミスに気づくことができる。AIも同じだ。

つまりAIの活用に必要な前提条件は、次の3つに集約される。

  • 扱う分野の基礎知識があること
  • AIの出力を検証できる目を持っていること
  • 「それは違う」と指摘できる判断力があること

この前提さえあれば、AIは強力な武器になる。
ゼロから作る必要はない。前提となるプロンプトを投げ、出てきたものを修正する。それだけで人力より格段に速い。
4時間の仕事時間であれば、人力では1時間考えて3時間作業する必要のあったものが、AIを使えば3時間考えて、1時間を確認と修正の作業にかければ良い。結果的に、思考により多くの時間を割くことができる。
AIは優秀な人間をさらに優秀にする装置、というのはそういうことだ。


第4章:「判断」と「責任」

AIが代替するのは「処理」だ——そう言われてきた。
しかし処理の積み上げが進むにつれ、「判断」もまたAIの領域に入りつつある。
判断という行為を分解してみると、その構造が見えてくる。

  • 情報収集
  • パターン認識
  • 過去事例との照合
  • 結論の導出

これらはすべて、AIが極めて得意とする処理だ。
簡易裁判における量刑判断も、医療診断における病名の特定も、突き詰めれば「膨大な事例データから最適解を導く」作業である。学習データが人間の経験則を超える日は、そう遠くない。

では、人間に何が残るのか。

それは「判断の結果を引き受ける」という行為だ。
AIが医療現場において「この診断が最も確率が高い」と出したとき、それを患者に伝え、その人生に寄り添い、万が一の結果に向き合うのは人間でなければならない。
裁判でも、AIが「過去判例からこの量刑が妥当」と出したとき、被告の人生の文脈を受け止めるのは人間だ。

「判断の生成」はAIへ、「判断の引き受け」は人間へ。この分離が、これからの仕事の基本構造になる。
そしてその「引き受け」を担うためには、AIが何を根拠にその判断を出したかを理解していなければならない。
責任を負うとは、その内容を知っていることと同義であるべきだ。


第5章:AIネイティブで格差は指数関数的に広がる

AI禁止令は、子どもや新人を守っていることにならない。次の時代に乗り遅れさせているだけだ。
動き出したAI社会は、最早止めることは適わないからだ。

AI活用企業の新人は、日々その使い方を学び、生産性を高めていく。一方で、AI禁止企業の新人は、従来のペースで仕事を覚えていく。数年後、この差は取り返しのつかない開きになる。
個人のレベルでも同じことが起きる。AIを使いこなせる人とそうでない人の差は、加速度的に広がっていく。
「AIネイティブ」がこれからの世代のスタンダードとなる。
かつて格差を生んでいたのは、知識量と処理速度の差だった。これからは、AIを使いこなせるか否かが、格差を指数関数的に拡大する。

そして重要なのは、セーフティな環境下で「間違えながらでも使う経験」を早期に積むことだ。
自転車で転ぶのが嫌だから自転車を禁止すれば、結果として自転車に乗れない大人を量産してしまう。
転んでしまう状況・ケースやその回避、リスクの少ない転び方を教えるのが教育であって、乗せないことが教育ではない。
AIのリスクや誤りを見抜く訓練を含め、使い方を教えていくことこそ、これからの教育の核心となる。


第6章:これからの「仕事ができる人」の定義

AI時代において、「仕事ができる人」の定義は変わることになる。
以前は処理が速く、知識が多い人が優秀だった。では、これからは何が求められるのか。
対比で整理してみよう。

領域これまでこれから
思考ゼロから考え、答えを出す何を問うかを設計し、
AIの出力を批判・発展させる
判断経験・直感・記憶に依存AIの提示するデータを踏まえ、
最終判断と責任を引き受ける
検証自分の知識・経験で気づくAIの出力を検証できる
知識が前提条件になる
実務全工程を自分で実行するAIに処理を委譲し、
指示・確認・修正に徹する
専門性知識量・処理速度が強みAIの出力の正誤を判断できる目と
文脈理解が強み
格差知識量・処理能力の差AIを使いこなせるか否かが
指数関数的に拡大する

これらを構造的に見れば、優秀の定義に一つの転換が浮かび上がる。
「実行する人間」から「設計し・検証し・責任を負う人間」へ、という点だ。
これからの優秀なエンジニアには、自力でバグのないコードを速く書く能力より、相手が本当に解決したい問題を聞き出し、それをAIを使ってシステム化する能力が求められる。それは今までの優秀とは異なることだ。

そしてこれは、エンジニアだけの話ではない。すべての職種において、「AIという優秀な部下をいかに使いこなすか」が、仕事の質を決める時代になる。
マネジメントとしても、評価の視点に変化が求められるということだ。


終章:AIを使って自分の質を出すということ

クリエイティブ作家がAIを使うとき、何が起きるか。
AIは素材を出す。骨格を作る。しかしそこに作家固有の経験、感情、視点、言葉の選び方が乗って初めて「作品」になる。
AIの出力をそのまま提出するのは、既成のプラモデルを組み立てて「私が作りました」と言うようなものだ。

これはあらゆる仕事に当てはまる。
プログラマーなら、AIのコードに自分のアーキテクチャ思想が乗るか。
マーケターなら、AIの分析に自分の顧客理解が乗るか。
研究者なら、AIの文献整理に自分にしか立てられない問いが乗るか。

AIの出力に「自分」が乗っているかどうか。それが、これからの価値の分岐点となる。
AIの生成物をそのまま提出するのは、自分の代わりに他人に試験を受けさせているようなものだ。

AI時代においては、「仕事ができない人」の定義が変わる。
従来は、処理が遅く、専門知識が少ない人だった。
これからはAIの出力に自分を乗せられない人、AIの誤りを見抜けない人が、仕事のできない人になる。
元記事にある「プログラマーがAIにソースコードを作らせたら無茶苦茶だった」「学生がAIに作らせたリポートをそのまま提出する」などの例は、AI世界では仕事ができない人々、ということになる。

道具は最新、上質になった。問われているのは、使い手の中身だ。


元記事:新人に「AI使用禁止令」は是か非か?「仕事の8割はAIに」という活用派 言語脳科学の権威は警鐘「ものを考える人間に一番大事なものを手放している」(ABEMA TIMES