AI:ML・DL・Transformerを車で例えて解説

プログラミング

Symbolic AI ~ Transformer の違いと歴史をわかりやすく解説

AIは難しそうに見えますが、
その進化の本質は “運転の上達過程” で例えると直感的に理解できます。

この記事では、

  • Symbolic AI(記号的AI)
  • ML(機械学習)
  • DL(ディープラーニング)
  • Transformer(注意機構モデル)

の違いを むずかしい専門用語をできる使わずに 解説し、
さらに 各技術がいつ誕生したか(歴史) もまとめます。


🟥 1. Symbolic AI(記号的AI:1950〜1980年代)

=「運転マニュアルを全部人間が書き、AIに渡して走らせる時代」

AIの研究は 1956年のダートマス会議 から始まりました。
最初のアプローチは「人間が知能をルールで書き下す」方法でした。


◎ 運転の例で言うと

Symbolic AI の車はこう動きます:

  • 信号が青 → 進む
  • 信号が赤 → 止まる
  • 歩行者を検出 → 停止
  • 標識がこの形なら → 減速

つまり、

人間が考えた運転ルールを、全部コード化した車

です。


◎ 限界(ルールの爆発)

現実は曖昧で複雑です。

  • 歩行者が途中で戻る
  • 標識が見えない
  • 天気が悪い
  • 車線が薄れている
  • 子どもが急に走り出す

これらをルール化すると if文が無限に増える

その結果:

Symbolic AI は“現実世界”を扱うには限界がある
(ルールの爆発)


🟧 2. ML(機械学習:1980〜2010年代)

=「見るべきポイント(特徴量)を人間が決めて、AIに学ばせる時代」

Symbolic AI の限界を突破するために生まれたのが ML です。


◎ 運転のたとえで言うと

AI にこう教えます:

  • 車線を見なさい
  • 車との距離を測りなさい
  • 前方の角度を計算しなさい
  • 歩行者の形を検出しなさい

つまり、

人間が“見るべきポイント(特徴量)”を設計し、 AIはその特徴を使って学ぶ。


◎ 限界

ML の根本的な制約はこれ。

●「何を見るべきか」を人間が決めている

もし人間が間違った見るべきポイント(特徴量)を設定したら、
AIも間違ったまま学びます。

例えば:

  • 夜に白線が見えない
  • 歩行者が予想外の形をしている
  • 標識が汚れている

こうしたケースは、人間の“特徴量設計”の限界でした。


🟩 3. DL(ディープラーニング:2012年〜)

=「映像だけ渡せば、自分で見るべきポイント(特徴量)を発見する自力ドライバーAI」

2012年の AlexNet の登場(ImageNet圧勝) により、
AIが世界的にブレイクします。

DL の本質はこうです。

AIが「見るべきポイント(特徴量)」を自動で学習する。 人間は生データを渡すだけ。


◎ 運転で言うとこうなる

AIに渡すのはただの映像。

  • 車線が何か
  • 歩行者が何か
  • 危険な状況がどれか

これを AIが勝手に抽出 し始める。

つまり、

ML:人間が見るポイントを指定
DL:見るポイントすらAIが自動で見つける

という大革命。


◎ 限界

DLも完璧ではありません。

●目の前の“現在”しか見れない

  • 過去の文脈が消える
  • 文章の長さが伸びると急に弱る
  • 長文を理解しにくい
  • 未来の計画が立てられない

運転で例えるなら:

フロントガラスの景色だけを見て走っている車。 地図が見えない。

ここを突破した技術が次です。


🟦 4. Transformer(2017年〜)

=「フロントガラス+地図全体」を同時に見ながら走れるAI

2017年、Googleの論文
「Attention Is All You Need」
によって、AIは大きく進化しました。

Transformer は、
“今見えている景色しか処理できない” DL の弱点を完全に突破 した技術です。


◎ 運転の例で言うと

Transformer の車は、

  • いま目の前の道路(フロントガラス) を見ながら
  • 地図アプリで周辺の全体像 を同時に確認し
  • 目的地までの方向性 をつかみ
  • その方向に沿って
  • 現在の位置から次にどの道へ進むべきか を選び続けます。

つまり Transformer は、

「いまの景色と、地図全体」を同時に見る運転AI

です。

そのため、

  • 目の前に病院が見えていなくても
  • 地図に病院があることを知っていて
  • 現在地との位置関係を把握し
  • 正しい方向にハンドルを切ることができます。

一方、DL(ディープラーニング)は、

“フロントガラスの景色だけ” を見て判断する車

です。

だから DL には、

「視界に映っていない目的地へ向かう」 という行動がそもそもできません。

こここそが、
Transformer が圧倒的に賢く見える理由です。


🧭 なぜ「視界にない目的地へ向かえる」と賢く見えるのか?

運転のたとえで言うと、Transformer は

地図を見ながら、目的地に向かって最適な道を選べる

能力を持っています。

DL は

  • 目の前の道だけ
  • その瞬間の情報だけ

で判断するため、

目的地を見越した行動が取れません。


Transformer は、

  • 地図(全体像)
  • 現在地(今)
  • 道のつながり(関係)
  • ゴール(目的地)

を同時に把握できるため、

“まだ見えていない未来に向かって、正しい道を選べる”

という、人間らしい判断が可能になります。


🧭 AI の歴史まとめ(年代)

技術年代本質(運転のたとえ)
Symbolic AI1950〜1980人間がすべての運転ルールを手書きで決める(完全手動)
ML1980〜2010人間が「どこを見るべきか」を指定し、AIはそのパターンを学ぶ
DL2012〜映像だけ渡せば、どこを見るべきかも含めてAIが自力で学ぶ
Transformer2017〜目の前の道路+地図全体を同時に見て判断し、目的地へ正しく向かえる

AIの進化と「運転」は親和性が高い

🚗 Symbolic AI

人間がすべてのルールを書いた「手作りの運転マニュアル」。
機械はその通りにしか動けない。


🚗 ML(機械学習)

人間が「どこを見るか」を教えて、
車はそのパターンを覚えて走るようになる“教習所方式”。


🚗 DL(ディープラーニング)

映像だけで、何を見るべきかも含めて車が勝手に覚える“自力ドライバー”。


🚗 Transformer

目の前の景色だけでなく、
地図全体を見ながら目的地へ向かって走れる“地図連動型自動運転”。


🎯 結論

AIの進化とは、 「世界をどう見るか」 という視点が広がっていった歴史である。

Symbolic AI → ML → DL → Transformer
という流れはまさに、

  • 視野が広がり
  • 理解できる範囲が増え
  • 未来の方向性を見越して動けるようになった

そんな“進化”の物語です。


コメント

タイトルとURLをコピーしました