#225分

第2章: AIの技術マップ — 7つの技術体系

AI機械学習深層学習技術マップ

第2章: AIの技術マップ — 7つの技術体系

この章を読むと: 「AI」という大きな言葉の中に、実は7つの異なる技術があることがわかり、ニュースやサービスで出会うAIが「どの技術なのか」を見分けられるようになります。

この技術を一言で言うと

AIは「1つの技術」ではなく「7つの技術の集合体」

「AI」は1つの技術を指す言葉ではありません。7つの異なるアプローチがあり、それぞれ得意なこと・苦手なことが全く違います。この章では、その全体像をマップとして整理します。


1. AIの技術マップ — 全体像

まず全体を俯瞰しましょう。AIの7つの技術を、登場順に並べると以下のようになります。

#技術名一言で言うと登場年代身近な例
1ルールベースAI人間が賢さを手書きする1980年代カーナビの経路計算
2機械学習データから法則を自分で発見1990年代〜スパムメール判定
3深層学習超複雑なパターンを自動認識2012年〜翻訳、音声認識
4強化学習試行錯誤で最適解を自力習得2016年〜囲碁AI、ロボット制御
5識別・認識系AI「これは何か」を高速判定2010年代〜顔認証、不良品検査
6推薦(レコメンド)AI似た人の行動から予測2000年代〜YouTube、Netflix
7生成AI新しいコンテンツを創り出す2022年〜ChatGPT、Claude

さらに2025年からは、これらの技術を組み合わせて**自律的に行動する「AIエージェント」**が登場しています。


2. ルールベースAI — 「人間が賢さを手書きするAI」

仕組み

人間が「もし〇〇なら△△する」というルール(IF-THENルール)を大量に書き込み、専門家の判断を模倣するシステムです。1980〜90年代に「エキスパートシステム」として医療診断や法律判断で活用されました。

もし 体温 > 38℃ かつ 咳が出る かつ 3日以上継続
  → インフルエンザの可能性あり → 検査を推奨

もし 体温 < 37℃ かつ 鼻水のみ
  → 風邪の可能性 → 安静を推奨

強みと弱み

項目内容
強み判断根拠が明確で説明しやすい。「なぜその判断か」を100%追跡できる
弱み想定外の状況に対応できない。ルール数が増えると矛盾が生じる
身近な例カーナビの経路計算、ATMの取引ルール、古い医療診断システム

なぜ衰退したのか

ルールの数が数千〜数万になると、人間が管理しきれなくなりました。「Aの条件ではXと判断するが、BかつCのときはYと判断し、ただしDの場合を除く…」というルールの例外処理が爆発し、システムが維持不能に。

教訓: 人間が「賢さ」を手書きするアプローチには限界がある。データから自動で学ぶ方法が必要だった。

2026年の位置づけ

衰退したとはいえ完全に消えたわけではありません。銀行の取引ルール、保険の引受基準、工場の安全停止ルールなど、「判断理由を100%説明できること」が法的に求められる領域では今も現役です。


3. 機械学習 — 「データから法則を自分で見つけるAI」

仕組み

「ルールを人間が書くのではなく、データからコンピュータ自身に見つけさせよう」という発想の転換。これがAIの歴史を大きく動かしました。

料理のアナロジー

レシピなしで料理を覚えるのが機械学習です。1,000枚の猫の写真を見せて、AIが自分で「猫らしさのルール」を発見する。人間が教えるのではなく、データから学ぶ

3つの学習方法

教師あり学習 — 「正解付きの問題集で勉強する」

入力: 猫の画像 → 正解: 「猫」
入力: 犬の画像 → 正解: 「犬」
× 10万枚
↓
AIが「猫らしさ」のパターンを自力で発見

身近な例: メールのスパム判定、手書き文字認識、不正取引検知

2026年の応用: 医療画像診断でがん検出精度が95%を超える事例が報告されています。

教師なし学習 — 「正解なしで自分でグループ分けする」

正解ラベルなしで、データの中からAI自身が構造やグループを見つけ出す方法。

大量の顧客データ → AIが自動で
  「まとめ買い型」「衝動買い型」「比較検討型」…
  とグループを発見

身近な例: 顧客セグメンテーション、異常検知(いつもと違う動きを見つける)

自己教師あり学習 — 「穴埋め問題を自分で作って解く」

データ自体から擬似的な「問題」を作り出して学習する方法。2026年のLLM(大規模言語モデル)の学習基盤となっている最も重要な手法です。

原文: 「私は 東京 に住んでいます」
↓ AIが自分で「東京」を隠す
問題: 「私は [???] に住んでいます」
↓ AIが予測
予測: 「東京」(正解!)

なぜ重要か: ChatGPTやClaudeはすべてこの方法で事前訓練されています。「次の単語を予測する」という単純なタスクが、推論・要約・翻訳能力を副産物として生み出すことが確認されています。

強みと弱み

項目内容
強み人間が気づかないパターンも発見できる。データが増えるほど賢くなる
弱み学習データが偏っていると判断も偏る(ゴミを入れればゴミが出る)
身近な例スパム判定、保険料算出、クレジットカード不正検知

2026年の市場での位置

古典的な機械学習(回帰分析、ランダムフォレスト、SVM等)は「成熟した安定技術」として、需要予測・異常検知・推薦システムなどで幅広く使われ続けています。深層学習ほど計算コストがかからないため、コストパフォーマンスの高い選択肢として健在です。


4. 深層学習 — 「なぜその答えなのか、人間にもわからないAI」

仕組み

人間の脳の神経回路を模したニューラルネットワークを何十層にも重ねた構造。従来の機械学習を大きく超える性能を実現しました。

会社組織のアナロジー

入力(営業部)→ 中間処理(製造部 × 複数階層)→ 出力(経営判断部)

入力を受け取る「営業部」、処理する「製造部(複数階層)」、答えを出す「経営判断部」。各部門が互いに情報を伝達し、フィードバックで全員が成長する。隠れ層が深いほど「中間管理職が多い大企業」に相当し、複雑な問題を細かく分業処理できます。

なぜ「深層」なのか

従来のニューラルネットワーク(2〜3層)では限界がありました。2012年にAlexNetが画像認識コンテスト(ImageNet)で8層のネットワークで圧勝。その後ResNetは152層まで深くし、層を深くするほど複雑なパターンを捉えられることが証明されました。

深層学習が可能になった3つの条件

条件説明
大量のデータインターネットの普及で学習データが爆発的に増加
GPUの進化画像処理用チップが深層学習の大量並列計算に最適だった
アルゴリズムの革新ReLU活性化関数、Dropout、バッチ正規化などの技術的ブレークスルー

強みと弱み

項目内容
強み画像・音声・言語で圧倒的な精度。人間の能力を超える領域も
弱みなぜその判断をしたか説明できない(ブラックボックス問題)
身近な例翻訳(DeepL)、音声認識(Siri)、顔認証(iPhone)

主要アーキテクチャの進化

名前特徴
1989LeNet手書き文字認識の初期CNN
2012AlexNetImageNetで圧勝、深層学習ブームの起点
2015ResNet152層。スキップ接続で超深層が可能に
2017Transformer文章全体を並列処理。現代の生成AIの基盤

5. 強化学習 — 「試行錯誤と報酬で自力で学ぶAI」

仕組み

正解データを与えるのではなく、「良い行動にはご褒美、悪い行動にはペナルティ」を与え続けることで最適な行動を学習します。

AIが行動する → 環境からフィードバック
  良い結果 → 報酬 +1 → この行動を増やす
  悪い結果 → ペナルティ -1 → この行動を減らす
× 何百万回繰り返し
↓
最適な行動パターンを自力で発見

ゲーム攻略のアナロジー

子供がゲームをプレイして、失敗と成功を繰り返しながら自然にコツを覚えるのと同じ。AIもルールだけ与えられ、点数を最大化するために何万回と試行錯誤します。

歴史的マイルストーン

モデル何をしたか
AlphaGo2016人間の棋譜データ+自己対戦で、囲碁の世界チャンピオンに勝利
AlphaZero2017人間の知識ゼロ。自己対戦のみで将棋・チェス・囲碁を制覇
MuZero2020ゲームのルールすら教えずに学習し、あらゆるゲームで最強レベル
OpenAI Five2019Dota 2(5対5のチーム戦)で世界チャンピオンに勝利

衝撃的事実: AlphaZeroはチェス400年の定石を72時間で捨て、人間が思いつかなかった新理論を自力で発明しました。

LLMとの関係 — RLHF

2026年の最も重要な強化学習の応用は、実はLLM(大規模言語モデル)の調整です。**RLHF(Reinforcement Learning from Human Feedback)**と呼ばれる技術で、ChatGPTやClaudeが「役に立つ」「安全」と感じられるのは、人間が採点した報酬で強化学習を行っているからです。

事前学習したLLM
  ↓
人間が2つの回答を比較「Aの方が良い」
  ↓
その評価を報酬として強化学習
  ↓
より人間好みの回答を出すLLMが完成

強みと弱み

項目内容
強み人間が思いつかない戦略を自力で発見できる
弱み報酬の設計が難しく、意図しない「ズル」を覚えることがある
身近な例囲碁AI、ロボット制御、LLMの調整(RLHF)

2026年の市場

強化学習市場は約160〜170億ドル(CAGR 28.3%)。LLMとの統合やロボティクスの拡大が成長ドライバーです。Figure AIのロボットがBMWの工場でフル稼働を開始し、試験運用比で4倍高速・7倍高精度を達成しています。


6. 識別・認識系AI — 「人間より正確だが、全く違う見方をしているAI」

仕組み

入力されたものが何であるかを判定することに特化。主に深層学習(CNN: 畳み込みニューラルネットワーク)を活用しています。

AIは「見て」いない

重要なのは、AIが人間と同じように「見て」いるわけではないことです。AIは画像を**「ピクセルの数値の集まり」**として処理しています。

人間の認識: 「形」「色」「文脈」を総合的に判断
AIの認識: 「ピクセル値の統計的パターン」を計算

だから、人間にはわからないピクセルの微細な改変で、AIは全く違うものと誤認識します。これが**敵対的サンプル(Adversarial Examples)**問題です。パンダの画像にノイズを加えるだけで、AIは「テナガザル」と誤判定する — **「賢いのに騙されやすい」**という逆説があります。

主要タスク

タスク何をするか応用例
画像分類「これは猫か犬か」を判定商品分類、植物識別
物体検出画像の中の「どこに何があるか」を特定自動運転、監視カメラ
セグメンテーションピクセル単位で「何の物体か」を識別医療画像、地図作成
顔認証顔の特徴量で個人を識別スマホロック解除、入退室管理

実世界の応用

自動運転: Teslaはカメラのみのビジョンベース方式で、2026年内の日本市販モデル実装を目標。Waymoは複合センサーで米国で無人タクシーを商用運転中。

医療画像診断: 内視鏡画像のがん検出で、AIの感度が**84.7%**に対し専門医は65.8%。AIが専門医を上回る領域が出始めています。

製造ライン: サントリーの大阪工場では、AIカメラによる外観異常検知で年間約2,000時間の作業削減を見込んでいます。

強みと弱み

項目内容
強み人間より速く・正確に大量データを処理。24時間稼働
弱み敵対的サンプルに弱い。見たことのないパターンに対応できない
身近な例スマホ顔認証、自動運転、製造ラインの不良品検査

7. 推薦(レコメンド)AI — 「あなた個人ではなく、似た集団を見ているAI」

仕組み

YouTubeのおすすめ、Netflixの関連作品、Amazonの「この商品を買った人はこれも」。最も日常的に触れているAIです。

2つの基本アプローチ

協調フィルタリング — 「似た人の行動を参考にする」

あなたがA, B, Cの映画を高評価した
  ↓
あなたと同じくA, B, Cを高評価した1,000人を発見
  ↓
その1,000人がDも高評価していた
  ↓
「あなたもDが好きかも」と推薦

核心: 「あなたと行動パターンが似ている1,000人が次に見た動画」をおすすめしているだけ。あなた自身を理解しているわけではありません。

コンテンツベース — 「似た特徴の商品を推す」

商品自体の属性(ジャンル、監督、出演者、テンポなど)を分析し、過去に好んだ商品と似た特徴を持つ商品を推薦します。

主要プラットフォームの推薦アルゴリズム

プラットフォーム特徴
YouTube視聴時間を最重要指標に。候補生成(数千→数百に絞り込み)→ランキング(最適順に並べ替え)の2段階
TikTok最初の視聴数秒の離脱率を分析。新規ユーザーにも精密な推薦が可能(コールドスタート問題の克服)
Netflix視聴だけでなく「一時停止」「巻き戻し」「途中離脱」まで分析。サムネイル画像もユーザーごとに最適化
Spotify音楽の音響特徴(テンポ、キー、エネルギー)を数値化し、類似楽曲を推薦
Amazon購買履歴 × 閲覧履歴 × 検索履歴を統合。カテゴリ横断の推薦が強み

フィルターバブル問題

推薦AIの最大の副作用はフィルターバブルです。似た情報ばかりが届き、視野が狭くなる現象です。

あなたが政治的に右寄りの記事をクリック
  ↓ AIが「この人は右寄りの記事が好き」と学習
右寄りの記事ばかり表示される
  ↓
左寄りの情報に触れる機会が減少
  ↓
「世界はこうだ」という偏った認識が固定化

便利さと引き換えに、気づかないうちに情報の偏りが生まれています。

強みと弱み

項目内容
強み自分では出会わなかったコンテンツを発見できる
弱みフィルターバブル。似た情報の繰り返しで視野が狭くなる
身近な例YouTube、Netflix、Amazon、Spotify、TikTok

8. 生成AI — 「圧縮された知識を解凍して出力するAI」

仕組み

テキスト・画像・音楽・動画を「創り出す」AI。ここまでの技術の集大成です。

図書館のアナロジー

インターネット上の膨大なテキストを読み込んで記憶した、物知りアシスタントです。質問すれば流暢に答えてくれますが、検索して調べているのではなく、記憶から「それらしい文章」を生成しています。だから自信満々に間違えることがある。

生成AIの本質

入力: 「日本の首都は」
  ↓
AIの処理: 「日本の首都は」の次に来る単語を予測
  → 「東京」(確率 98.7%)
  ↓
繰り返し: 「東京」の次の単語を予測
  → 「です」
  ↓
出力: 「日本の首都は東京です」

やっていることは「次にくる単語の予測」の繰り返し。「考えて答えている」のではなく、「統計的に最もありそうな文字列を出力している」。だからもっともらしい嘘をつきます。

2026年の主要モデル

モデル提供元特徴
GPT-5 / GPT-4oOpenAI市場シェア最大。マルチモーダル対応
Claude 4(Opus / Sonnet)Anthropic安全性設計が核心。コーディングで最高水準
Gemini 2.5GoogleGoogle検索と直結。マルチモーダル統合が強み
DeepSeek R1DeepSeek(中国)GPT-4同等性能を1/18以下のコストで実現
Llama 4Metaオープンソース。自社サーバーで動かせる

2025年最大のサプライズ: 中国のDeepSeek R1が超低コストで高性能を実現し、「AIは巨額投資しないと作れない」という常識を覆しました。

生成AIの種類

テキストだけでなく、あらゆるメディアを生成できるようになっています。

生成対象代表的ツール
テキストChatGPT、Claude、Gemini
画像Midjourney、Stable Diffusion、DALL-E
動画Sora(OpenAI)、Veo 2(Google)
音声・音楽ElevenLabs、Suno、VOICEVOX
コードGitHub Copilot、Claude Code、Cursor

強みと弱み

項目内容
強み自然言語で指示するだけで多様なアウトプットを生成
弱みもっともらしい嘘(ハルシネーション)をつく
身近な例ChatGPT、Claude、Gemini、Stable Diffusion

生成AI市場の規模

市場規模備考
2025年約1,036億ドル(約15兆円)
2026年約4,728億ドル(約69兆円)急成長
2034年約1兆2,600億ドル(約185兆円)10年で12倍

9. 番外編: AIエージェント — 7つの技術を統合して「行動する」

2025年から登場したAIエージェントは、ここまでの7つの技術を組み合わせて自律的に行動する存在です。第10章で詳しく解説しますが、ここでは位置づけだけ紹介します。

比較軸従来の生成AIAIエージェント
動作人が質問 → AIが答える人が目標を指示 → AIが自律的に行動して完遂
ツールテキスト生成のみWeb検索、ファイル操作、API呼び出しも実行
例え相談相手部下・チーム

AIエージェント市場は2026年に約109億ドル(Fortune Business Insights)。2030年には503億ドルに達する見込みです。


10. 一覧表でまとめ — 7つの技術を一目で比較

技術一言で言うと学習方法身近な例最大の弱点
ルールベース人間が賢さを手書きルール記述カーナビ、ATM想定外に弱い
機械学習データから法則発見正解付きデータ等スパム判定、保険料算出データ偏り
深層学習超複雑パターン認識大量データ+多層NN翻訳、音声認識ブラックボックス
強化学習試行錯誤で自力習得報酬とペナルティAlphaGo、RLHF報酬設計の難しさ
識別・認識系「これは何か」判定深層学習ベース顔認証、外観検査敵対的サンプル
推薦AI似た人の行動から予測協調フィルタリングYouTube、Netflixフィルターバブル
生成AI新コンテンツ創出大規模言語モデルChatGPT、Claudeハルシネーション

11. 技術の選び方 — 目的別ガイド

「自社でAIを導入したい」と思ったとき、どの技術が適しているかの判断基準です。

やりたいこと最適な技術具体例
不良品を自動で見つけたい識別・認識系AI製造ラインの外観検査
需要を予測したい機械学習在庫管理、発注最適化
顧客一人ひとりに合った提案をしたい推薦AIECサイトのレコメンド
文書作成・翻訳を効率化したい生成AI議事録要約、メール作成
ルーティン業務を丸ごと自動化したいAIエージェント調査→レポート作成
判断理由を100%説明する必要があるルールベースAI法的判断、安全基準

この章のまとめ(3ポイント)

  1. AIは1つの技術ではなく7つの技術の集合体。それぞれ得意なこと・苦手なことが全く違う
  2. 技術は進化の連続。ルールベース → 機械学習 → 深層学習 → 生成AI → AIエージェントと、自動化の範囲が広がり続けている
  3. 正解はない、最適がある。目的に応じて適切な技術を選ぶことが、AI活用の第一歩

もっと知りたい人へ

  • NVIDIA Blog Japan「AI、機械学習、ディープラーニングの違いとは」: 入れ子構造を図解で丁寧に説明した公式記事
  • 総務省 情報通信白書 令和6年版: AI技術の分類と歴史を網羅した無料資料
  • Google「Machine Learning Crash Course」: 機械学習の基礎を無料で学べるオンラインコース