第2章: AIの技術マップ — 7つの技術体系
この章を読むと: 「AI」という大きな言葉の中に、実は7つの異なる技術があることがわかり、ニュースやサービスで出会うAIが「どの技術なのか」を見分けられるようになります。
この技術を一言で言うと
AIは「1つの技術」ではなく「7つの技術の集合体」
「AI」は1つの技術を指す言葉ではありません。7つの異なるアプローチがあり、それぞれ得意なこと・苦手なことが全く違います。この章では、その全体像をマップとして整理します。
1. AIの技術マップ — 全体像
まず全体を俯瞰しましょう。AIの7つの技術を、登場順に並べると以下のようになります。
| # | 技術名 | 一言で言うと | 登場年代 | 身近な例 |
|---|---|---|---|---|
| 1 | ルールベースAI | 人間が賢さを手書きする | 1980年代 | カーナビの経路計算 |
| 2 | 機械学習 | データから法則を自分で発見 | 1990年代〜 | スパムメール判定 |
| 3 | 深層学習 | 超複雑なパターンを自動認識 | 2012年〜 | 翻訳、音声認識 |
| 4 | 強化学習 | 試行錯誤で最適解を自力習得 | 2016年〜 | 囲碁AI、ロボット制御 |
| 5 | 識別・認識系AI | 「これは何か」を高速判定 | 2010年代〜 | 顔認証、不良品検査 |
| 6 | 推薦(レコメンド)AI | 似た人の行動から予測 | 2000年代〜 | YouTube、Netflix |
| 7 | 生成AI | 新しいコンテンツを創り出す | 2022年〜 | ChatGPT、Claude |
さらに2025年からは、これらの技術を組み合わせて**自律的に行動する「AIエージェント」**が登場しています。
2. ルールベースAI — 「人間が賢さを手書きするAI」
仕組み
人間が「もし〇〇なら△△する」というルール(IF-THENルール)を大量に書き込み、専門家の判断を模倣するシステムです。1980〜90年代に「エキスパートシステム」として医療診断や法律判断で活用されました。
もし 体温 > 38℃ かつ 咳が出る かつ 3日以上継続
→ インフルエンザの可能性あり → 検査を推奨
もし 体温 < 37℃ かつ 鼻水のみ
→ 風邪の可能性 → 安静を推奨
強みと弱み
| 項目 | 内容 |
|---|---|
| 強み | 判断根拠が明確で説明しやすい。「なぜその判断か」を100%追跡できる |
| 弱み | 想定外の状況に対応できない。ルール数が増えると矛盾が生じる |
| 身近な例 | カーナビの経路計算、ATMの取引ルール、古い医療診断システム |
なぜ衰退したのか
ルールの数が数千〜数万になると、人間が管理しきれなくなりました。「Aの条件ではXと判断するが、BかつCのときはYと判断し、ただしDの場合を除く…」というルールの例外処理が爆発し、システムが維持不能に。
教訓: 人間が「賢さ」を手書きするアプローチには限界がある。データから自動で学ぶ方法が必要だった。
2026年の位置づけ
衰退したとはいえ完全に消えたわけではありません。銀行の取引ルール、保険の引受基準、工場の安全停止ルールなど、「判断理由を100%説明できること」が法的に求められる領域では今も現役です。
3. 機械学習 — 「データから法則を自分で見つけるAI」
仕組み
「ルールを人間が書くのではなく、データからコンピュータ自身に見つけさせよう」という発想の転換。これがAIの歴史を大きく動かしました。
料理のアナロジー
レシピなしで料理を覚えるのが機械学習です。1,000枚の猫の写真を見せて、AIが自分で「猫らしさのルール」を発見する。人間が教えるのではなく、データから学ぶ。
3つの学習方法
教師あり学習 — 「正解付きの問題集で勉強する」
入力: 猫の画像 → 正解: 「猫」
入力: 犬の画像 → 正解: 「犬」
× 10万枚
↓
AIが「猫らしさ」のパターンを自力で発見
身近な例: メールのスパム判定、手書き文字認識、不正取引検知
2026年の応用: 医療画像診断でがん検出精度が95%を超える事例が報告されています。
教師なし学習 — 「正解なしで自分でグループ分けする」
正解ラベルなしで、データの中からAI自身が構造やグループを見つけ出す方法。
大量の顧客データ → AIが自動で
「まとめ買い型」「衝動買い型」「比較検討型」…
とグループを発見
身近な例: 顧客セグメンテーション、異常検知(いつもと違う動きを見つける)
自己教師あり学習 — 「穴埋め問題を自分で作って解く」
データ自体から擬似的な「問題」を作り出して学習する方法。2026年のLLM(大規模言語モデル)の学習基盤となっている最も重要な手法です。
原文: 「私は 東京 に住んでいます」
↓ AIが自分で「東京」を隠す
問題: 「私は [???] に住んでいます」
↓ AIが予測
予測: 「東京」(正解!)
なぜ重要か: ChatGPTやClaudeはすべてこの方法で事前訓練されています。「次の単語を予測する」という単純なタスクが、推論・要約・翻訳能力を副産物として生み出すことが確認されています。
強みと弱み
| 項目 | 内容 |
|---|---|
| 強み | 人間が気づかないパターンも発見できる。データが増えるほど賢くなる |
| 弱み | 学習データが偏っていると判断も偏る(ゴミを入れればゴミが出る) |
| 身近な例 | スパム判定、保険料算出、クレジットカード不正検知 |
2026年の市場での位置
古典的な機械学習(回帰分析、ランダムフォレスト、SVM等)は「成熟した安定技術」として、需要予測・異常検知・推薦システムなどで幅広く使われ続けています。深層学習ほど計算コストがかからないため、コストパフォーマンスの高い選択肢として健在です。
4. 深層学習 — 「なぜその答えなのか、人間にもわからないAI」
仕組み
人間の脳の神経回路を模したニューラルネットワークを何十層にも重ねた構造。従来の機械学習を大きく超える性能を実現しました。
会社組織のアナロジー
入力(営業部)→ 中間処理(製造部 × 複数階層)→ 出力(経営判断部)
入力を受け取る「営業部」、処理する「製造部(複数階層)」、答えを出す「経営判断部」。各部門が互いに情報を伝達し、フィードバックで全員が成長する。隠れ層が深いほど「中間管理職が多い大企業」に相当し、複雑な問題を細かく分業処理できます。
なぜ「深層」なのか
従来のニューラルネットワーク(2〜3層)では限界がありました。2012年にAlexNetが画像認識コンテスト(ImageNet)で8層のネットワークで圧勝。その後ResNetは152層まで深くし、層を深くするほど複雑なパターンを捉えられることが証明されました。
深層学習が可能になった3つの条件
| 条件 | 説明 |
|---|---|
| 大量のデータ | インターネットの普及で学習データが爆発的に増加 |
| GPUの進化 | 画像処理用チップが深層学習の大量並列計算に最適だった |
| アルゴリズムの革新 | ReLU活性化関数、Dropout、バッチ正規化などの技術的ブレークスルー |
強みと弱み
| 項目 | 内容 |
|---|---|
| 強み | 画像・音声・言語で圧倒的な精度。人間の能力を超える領域も |
| 弱み | なぜその判断をしたか説明できない(ブラックボックス問題) |
| 身近な例 | 翻訳(DeepL)、音声認識(Siri)、顔認証(iPhone) |
主要アーキテクチャの進化
| 年 | 名前 | 特徴 |
|---|---|---|
| 1989 | LeNet | 手書き文字認識の初期CNN |
| 2012 | AlexNet | ImageNetで圧勝、深層学習ブームの起点 |
| 2015 | ResNet | 152層。スキップ接続で超深層が可能に |
| 2017 | Transformer | 文章全体を並列処理。現代の生成AIの基盤 |
5. 強化学習 — 「試行錯誤と報酬で自力で学ぶAI」
仕組み
正解データを与えるのではなく、「良い行動にはご褒美、悪い行動にはペナルティ」を与え続けることで最適な行動を学習します。
AIが行動する → 環境からフィードバック
良い結果 → 報酬 +1 → この行動を増やす
悪い結果 → ペナルティ -1 → この行動を減らす
× 何百万回繰り返し
↓
最適な行動パターンを自力で発見
ゲーム攻略のアナロジー
子供がゲームをプレイして、失敗と成功を繰り返しながら自然にコツを覚えるのと同じ。AIもルールだけ与えられ、点数を最大化するために何万回と試行錯誤します。
歴史的マイルストーン
| モデル | 年 | 何をしたか |
|---|---|---|
| AlphaGo | 2016 | 人間の棋譜データ+自己対戦で、囲碁の世界チャンピオンに勝利 |
| AlphaZero | 2017 | 人間の知識ゼロ。自己対戦のみで将棋・チェス・囲碁を制覇 |
| MuZero | 2020 | ゲームのルールすら教えずに学習し、あらゆるゲームで最強レベル |
| OpenAI Five | 2019 | Dota 2(5対5のチーム戦)で世界チャンピオンに勝利 |
衝撃的事実: AlphaZeroはチェス400年の定石を72時間で捨て、人間が思いつかなかった新理論を自力で発明しました。
LLMとの関係 — RLHF
2026年の最も重要な強化学習の応用は、実はLLM(大規模言語モデル)の調整です。**RLHF(Reinforcement Learning from Human Feedback)**と呼ばれる技術で、ChatGPTやClaudeが「役に立つ」「安全」と感じられるのは、人間が採点した報酬で強化学習を行っているからです。
事前学習したLLM
↓
人間が2つの回答を比較「Aの方が良い」
↓
その評価を報酬として強化学習
↓
より人間好みの回答を出すLLMが完成
強みと弱み
| 項目 | 内容 |
|---|---|
| 強み | 人間が思いつかない戦略を自力で発見できる |
| 弱み | 報酬の設計が難しく、意図しない「ズル」を覚えることがある |
| 身近な例 | 囲碁AI、ロボット制御、LLMの調整(RLHF) |
2026年の市場
強化学習市場は約160〜170億ドル(CAGR 28.3%)。LLMとの統合やロボティクスの拡大が成長ドライバーです。Figure AIのロボットがBMWの工場でフル稼働を開始し、試験運用比で4倍高速・7倍高精度を達成しています。
6. 識別・認識系AI — 「人間より正確だが、全く違う見方をしているAI」
仕組み
入力されたものが何であるかを判定することに特化。主に深層学習(CNN: 畳み込みニューラルネットワーク)を活用しています。
AIは「見て」いない
重要なのは、AIが人間と同じように「見て」いるわけではないことです。AIは画像を**「ピクセルの数値の集まり」**として処理しています。
人間の認識: 「形」「色」「文脈」を総合的に判断
AIの認識: 「ピクセル値の統計的パターン」を計算
だから、人間にはわからないピクセルの微細な改変で、AIは全く違うものと誤認識します。これが**敵対的サンプル(Adversarial Examples)**問題です。パンダの画像にノイズを加えるだけで、AIは「テナガザル」と誤判定する — **「賢いのに騙されやすい」**という逆説があります。
主要タスク
| タスク | 何をするか | 応用例 |
|---|---|---|
| 画像分類 | 「これは猫か犬か」を判定 | 商品分類、植物識別 |
| 物体検出 | 画像の中の「どこに何があるか」を特定 | 自動運転、監視カメラ |
| セグメンテーション | ピクセル単位で「何の物体か」を識別 | 医療画像、地図作成 |
| 顔認証 | 顔の特徴量で個人を識別 | スマホロック解除、入退室管理 |
実世界の応用
自動運転: Teslaはカメラのみのビジョンベース方式で、2026年内の日本市販モデル実装を目標。Waymoは複合センサーで米国で無人タクシーを商用運転中。
医療画像診断: 内視鏡画像のがん検出で、AIの感度が**84.7%**に対し専門医は65.8%。AIが専門医を上回る領域が出始めています。
製造ライン: サントリーの大阪工場では、AIカメラによる外観異常検知で年間約2,000時間の作業削減を見込んでいます。
強みと弱み
| 項目 | 内容 |
|---|---|
| 強み | 人間より速く・正確に大量データを処理。24時間稼働 |
| 弱み | 敵対的サンプルに弱い。見たことのないパターンに対応できない |
| 身近な例 | スマホ顔認証、自動運転、製造ラインの不良品検査 |
7. 推薦(レコメンド)AI — 「あなた個人ではなく、似た集団を見ているAI」
仕組み
YouTubeのおすすめ、Netflixの関連作品、Amazonの「この商品を買った人はこれも」。最も日常的に触れているAIです。
2つの基本アプローチ
協調フィルタリング — 「似た人の行動を参考にする」
あなたがA, B, Cの映画を高評価した
↓
あなたと同じくA, B, Cを高評価した1,000人を発見
↓
その1,000人がDも高評価していた
↓
「あなたもDが好きかも」と推薦
核心: 「あなたと行動パターンが似ている1,000人が次に見た動画」をおすすめしているだけ。あなた自身を理解しているわけではありません。
コンテンツベース — 「似た特徴の商品を推す」
商品自体の属性(ジャンル、監督、出演者、テンポなど)を分析し、過去に好んだ商品と似た特徴を持つ商品を推薦します。
主要プラットフォームの推薦アルゴリズム
| プラットフォーム | 特徴 |
|---|---|
| YouTube | 視聴時間を最重要指標に。候補生成(数千→数百に絞り込み)→ランキング(最適順に並べ替え)の2段階 |
| TikTok | 最初の視聴数秒の離脱率を分析。新規ユーザーにも精密な推薦が可能(コールドスタート問題の克服) |
| Netflix | 視聴だけでなく「一時停止」「巻き戻し」「途中離脱」まで分析。サムネイル画像もユーザーごとに最適化 |
| Spotify | 音楽の音響特徴(テンポ、キー、エネルギー)を数値化し、類似楽曲を推薦 |
| Amazon | 購買履歴 × 閲覧履歴 × 検索履歴を統合。カテゴリ横断の推薦が強み |
フィルターバブル問題
推薦AIの最大の副作用はフィルターバブルです。似た情報ばかりが届き、視野が狭くなる現象です。
あなたが政治的に右寄りの記事をクリック
↓ AIが「この人は右寄りの記事が好き」と学習
右寄りの記事ばかり表示される
↓
左寄りの情報に触れる機会が減少
↓
「世界はこうだ」という偏った認識が固定化
便利さと引き換えに、気づかないうちに情報の偏りが生まれています。
強みと弱み
| 項目 | 内容 |
|---|---|
| 強み | 自分では出会わなかったコンテンツを発見できる |
| 弱み | フィルターバブル。似た情報の繰り返しで視野が狭くなる |
| 身近な例 | YouTube、Netflix、Amazon、Spotify、TikTok |
8. 生成AI — 「圧縮された知識を解凍して出力するAI」
仕組み
テキスト・画像・音楽・動画を「創り出す」AI。ここまでの技術の集大成です。
図書館のアナロジー
インターネット上の膨大なテキストを読み込んで記憶した、物知りアシスタントです。質問すれば流暢に答えてくれますが、検索して調べているのではなく、記憶から「それらしい文章」を生成しています。だから自信満々に間違えることがある。
生成AIの本質
入力: 「日本の首都は」
↓
AIの処理: 「日本の首都は」の次に来る単語を予測
→ 「東京」(確率 98.7%)
↓
繰り返し: 「東京」の次の単語を予測
→ 「です」
↓
出力: 「日本の首都は東京です」
やっていることは「次にくる単語の予測」の繰り返し。「考えて答えている」のではなく、「統計的に最もありそうな文字列を出力している」。だからもっともらしい嘘をつきます。
2026年の主要モデル
| モデル | 提供元 | 特徴 |
|---|---|---|
| GPT-5 / GPT-4o | OpenAI | 市場シェア最大。マルチモーダル対応 |
| Claude 4(Opus / Sonnet) | Anthropic | 安全性設計が核心。コーディングで最高水準 |
| Gemini 2.5 | Google検索と直結。マルチモーダル統合が強み | |
| DeepSeek R1 | DeepSeek(中国) | GPT-4同等性能を1/18以下のコストで実現 |
| Llama 4 | Meta | オープンソース。自社サーバーで動かせる |
2025年最大のサプライズ: 中国のDeepSeek R1が超低コストで高性能を実現し、「AIは巨額投資しないと作れない」という常識を覆しました。
生成AIの種類
テキストだけでなく、あらゆるメディアを生成できるようになっています。
| 生成対象 | 代表的ツール |
|---|---|
| テキスト | ChatGPT、Claude、Gemini |
| 画像 | Midjourney、Stable Diffusion、DALL-E |
| 動画 | Sora(OpenAI)、Veo 2(Google) |
| 音声・音楽 | ElevenLabs、Suno、VOICEVOX |
| コード | GitHub Copilot、Claude Code、Cursor |
強みと弱み
| 項目 | 内容 |
|---|---|
| 強み | 自然言語で指示するだけで多様なアウトプットを生成 |
| 弱み | もっともらしい嘘(ハルシネーション)をつく |
| 身近な例 | ChatGPT、Claude、Gemini、Stable Diffusion |
生成AI市場の規模
| 年 | 市場規模 | 備考 |
|---|---|---|
| 2025年 | 約1,036億ドル(約15兆円) | — |
| 2026年 | 約4,728億ドル(約69兆円) | 急成長 |
| 2034年 | 約1兆2,600億ドル(約185兆円) | 10年で12倍 |
9. 番外編: AIエージェント — 7つの技術を統合して「行動する」
2025年から登場したAIエージェントは、ここまでの7つの技術を組み合わせて自律的に行動する存在です。第10章で詳しく解説しますが、ここでは位置づけだけ紹介します。
| 比較軸 | 従来の生成AI | AIエージェント |
|---|---|---|
| 動作 | 人が質問 → AIが答える | 人が目標を指示 → AIが自律的に行動して完遂 |
| ツール | テキスト生成のみ | Web検索、ファイル操作、API呼び出しも実行 |
| 例え | 相談相手 | 部下・チーム |
AIエージェント市場は2026年に約109億ドル(Fortune Business Insights)。2030年には503億ドルに達する見込みです。
10. 一覧表でまとめ — 7つの技術を一目で比較
| 技術 | 一言で言うと | 学習方法 | 身近な例 | 最大の弱点 |
|---|---|---|---|---|
| ルールベース | 人間が賢さを手書き | ルール記述 | カーナビ、ATM | 想定外に弱い |
| 機械学習 | データから法則発見 | 正解付きデータ等 | スパム判定、保険料算出 | データ偏り |
| 深層学習 | 超複雑パターン認識 | 大量データ+多層NN | 翻訳、音声認識 | ブラックボックス |
| 強化学習 | 試行錯誤で自力習得 | 報酬とペナルティ | AlphaGo、RLHF | 報酬設計の難しさ |
| 識別・認識系 | 「これは何か」判定 | 深層学習ベース | 顔認証、外観検査 | 敵対的サンプル |
| 推薦AI | 似た人の行動から予測 | 協調フィルタリング | YouTube、Netflix | フィルターバブル |
| 生成AI | 新コンテンツ創出 | 大規模言語モデル | ChatGPT、Claude | ハルシネーション |
11. 技術の選び方 — 目的別ガイド
「自社でAIを導入したい」と思ったとき、どの技術が適しているかの判断基準です。
| やりたいこと | 最適な技術 | 具体例 |
|---|---|---|
| 不良品を自動で見つけたい | 識別・認識系AI | 製造ラインの外観検査 |
| 需要を予測したい | 機械学習 | 在庫管理、発注最適化 |
| 顧客一人ひとりに合った提案をしたい | 推薦AI | ECサイトのレコメンド |
| 文書作成・翻訳を効率化したい | 生成AI | 議事録要約、メール作成 |
| ルーティン業務を丸ごと自動化したい | AIエージェント | 調査→レポート作成 |
| 判断理由を100%説明する必要がある | ルールベースAI | 法的判断、安全基準 |
この章のまとめ(3ポイント)
- AIは1つの技術ではなく7つの技術の集合体。それぞれ得意なこと・苦手なことが全く違う
- 技術は進化の連続。ルールベース → 機械学習 → 深層学習 → 生成AI → AIエージェントと、自動化の範囲が広がり続けている
- 正解はない、最適がある。目的に応じて適切な技術を選ぶことが、AI活用の第一歩
もっと知りたい人へ
- NVIDIA Blog Japan「AI、機械学習、ディープラーニングの違いとは」: 入れ子構造を図解で丁寧に説明した公式記事
- 総務省 情報通信白書 令和6年版: AI技術の分類と歴史を網羅した無料資料
- Google「Machine Learning Crash Course」: 機械学習の基礎を無料で学べるオンラインコース