Symbolic AI ~ Transformer の違いと歴史をわかりやすく解説
AIは難しそうに見えますが、
その進化の本質は “運転の上達過程” で例えると直感的に理解できます。
この記事では、
- Symbolic AI(記号的AI)
- ML(機械学習)
- DL(ディープラーニング)
- Transformer(注意機構モデル)
の違いを むずかしい専門用語をできる使わずに 解説し、
さらに 各技術がいつ誕生したか(歴史) もまとめます。
🟥 1. Symbolic AI(記号的AI:1950〜1980年代)
=「運転マニュアルを全部人間が書き、AIに渡して走らせる時代」
AIの研究は 1956年のダートマス会議 から始まりました。
最初のアプローチは「人間が知能をルールで書き下す」方法でした。
◎ 運転の例で言うと
Symbolic AI の車はこう動きます:
- 信号が青 → 進む
- 信号が赤 → 止まる
- 歩行者を検出 → 停止
- 標識がこの形なら → 減速
つまり、
人間が考えた運転ルールを、全部コード化した車
です。
◎ 限界(ルールの爆発)
現実は曖昧で複雑です。
- 歩行者が途中で戻る
- 標識が見えない
- 天気が悪い
- 車線が薄れている
- 子どもが急に走り出す
これらをルール化すると if文が無限に増える。
その結果:
Symbolic AI は“現実世界”を扱うには限界がある
(ルールの爆発)
🟧 2. ML(機械学習:1980〜2010年代)
=「見るべきポイント(特徴量)を人間が決めて、AIに学ばせる時代」
Symbolic AI の限界を突破するために生まれたのが ML です。
◎ 運転のたとえで言うと
AI にこう教えます:
- 車線を見なさい
- 車との距離を測りなさい
- 前方の角度を計算しなさい
- 歩行者の形を検出しなさい
つまり、
人間が“見るべきポイント(特徴量)”を設計し、 AIはその特徴を使って学ぶ。
◎ 限界
ML の根本的な制約はこれ。
●「何を見るべきか」を人間が決めている
もし人間が間違った見るべきポイント(特徴量)を設定したら、
AIも間違ったまま学びます。
例えば:
- 夜に白線が見えない
- 歩行者が予想外の形をしている
- 標識が汚れている
こうしたケースは、人間の“特徴量設計”の限界でした。
🟩 3. DL(ディープラーニング:2012年〜)
=「映像だけ渡せば、自分で見るべきポイント(特徴量)を発見する自力ドライバーAI」
2012年の AlexNet の登場(ImageNet圧勝) により、
AIが世界的にブレイクします。
DL の本質はこうです。
AIが「見るべきポイント(特徴量)」を自動で学習する。 人間は生データを渡すだけ。
◎ 運転で言うとこうなる
AIに渡すのはただの映像。
- 車線が何か
- 歩行者が何か
- 危険な状況がどれか
これを AIが勝手に抽出 し始める。
つまり、
ML:人間が見るポイントを指定
DL:見るポイントすらAIが自動で見つける
という大革命。
◎ 限界
DLも完璧ではありません。
●目の前の“現在”しか見れない
- 過去の文脈が消える
- 文章の長さが伸びると急に弱る
- 長文を理解しにくい
- 未来の計画が立てられない
運転で例えるなら:
フロントガラスの景色だけを見て走っている車。 地図が見えない。
ここを突破した技術が次です。
🟦 4. Transformer(2017年〜)
=「フロントガラス+地図全体」を同時に見ながら走れるAI
2017年、Googleの論文
「Attention Is All You Need」
によって、AIは大きく進化しました。
Transformer は、
“今見えている景色しか処理できない” DL の弱点を完全に突破 した技術です。
◎ 運転の例で言うと
Transformer の車は、
- いま目の前の道路(フロントガラス) を見ながら
- 地図アプリで周辺の全体像 を同時に確認し
- 目的地までの方向性 をつかみ
- その方向に沿って
- 現在の位置から次にどの道へ進むべきか を選び続けます。
つまり Transformer は、
「いまの景色と、地図全体」を同時に見る運転AI
です。
そのため、
- 目の前に病院が見えていなくても
- 地図に病院があることを知っていて
- 現在地との位置関係を把握し
- 正しい方向にハンドルを切ることができます。
一方、DL(ディープラーニング)は、
“フロントガラスの景色だけ” を見て判断する車
です。
だから DL には、
「視界に映っていない目的地へ向かう」 という行動がそもそもできません。
こここそが、
Transformer が圧倒的に賢く見える理由です。
🧭 なぜ「視界にない目的地へ向かえる」と賢く見えるのか?
運転のたとえで言うと、Transformer は
地図を見ながら、目的地に向かって最適な道を選べる
能力を持っています。
DL は
- 目の前の道だけ
- その瞬間の情報だけ
で判断するため、
目的地を見越した行動が取れません。
Transformer は、
- 地図(全体像)
- 現在地(今)
- 道のつながり(関係)
- ゴール(目的地)
を同時に把握できるため、
“まだ見えていない未来に向かって、正しい道を選べる”
という、人間らしい判断が可能になります。
🧭 AI の歴史まとめ(年代)
| 技術 | 年代 | 本質(運転のたとえ) |
|---|---|---|
| Symbolic AI | 1950〜1980 | 人間がすべての運転ルールを手書きで決める(完全手動) |
| ML | 1980〜2010 | 人間が「どこを見るべきか」を指定し、AIはそのパターンを学ぶ |
| DL | 2012〜 | 映像だけ渡せば、どこを見るべきかも含めてAIが自力で学ぶ |
| Transformer | 2017〜 | 目の前の道路+地図全体を同時に見て判断し、目的地へ正しく向かえる |
AIの進化と「運転」は親和性が高い
🚗 Symbolic AI
人間がすべてのルールを書いた「手作りの運転マニュアル」。
機械はその通りにしか動けない。
🚗 ML(機械学習)
人間が「どこを見るか」を教えて、
車はそのパターンを覚えて走るようになる“教習所方式”。
🚗 DL(ディープラーニング)
映像だけで、何を見るべきかも含めて車が勝手に覚える“自力ドライバー”。
🚗 Transformer
目の前の景色だけでなく、
地図全体を見ながら目的地へ向かって走れる“地図連動型自動運転”。
🎯 結論
AIの進化とは、 「世界をどう見るか」 という視点が広がっていった歴史である。
Symbolic AI → ML → DL → Transformer
という流れはまさに、
- 視野が広がり
- 理解できる範囲が増え
- 未来の方向性を見越して動けるようになった
そんな“進化”の物語です。


コメント