#26分

圧縮されたものしか出てこない ─ AIの限界

AIChatGPT生成AIプロンプトAIリテラシーAIの仕組みテクノロジーわかりやすく解説

第2回:圧縮されたものしか出てこない ─ AIの限界

「zipファイルに入っていないものは、開いても出てこない。当然だ」


AIに最新ニュースを聞いたことありますか?

「今日のニュースを教えて」

「昨日の株価を教えて」

「先週発表された新製品について教えて」

AIの答え:

「申し訳ありませんが、私は最新情報にアクセスできません」

なんで?

すごいAIなのに、今日のニュースも知らないの?


zipファイルの比喩を思い出してほしい。

前回、こう説明した。

AIはインターネットをzip化したもの。

この比喩で、AIの限界がすべて説明できる。


圧縮時点の情報しかない

zipファイルには、圧縮した時点のファイルしか入っていない。

当たり前だ。

2023年に圧縮したzipファイルを開いても、2024年のファイルは出てこない。

入っていないから。


AIも同じ。

学習した時点(圧縮時点)の情報しかない。

ChatGPTなら、だいたい2023年くらいまでの情報。

だから、こうなる。

「2024年の出来事を教えて」→ 曖昧な答え、または「分かりません」

「今日の天気は?」→ 答えられない

「昨日発表された決算は?」→ 知らない


これはAIの欠陥じゃない。

構造的な限界。

zipファイルに入っていないファイルは、開いても出てこない。

それと同じ。


圧縮されていない情報は出てこない

もう一つの限界がある。

インターネット上にあっても、圧縮されていなければ出てこない。


たとえば、こんな質問。

「うちの会社の売上データを分析して」

AIの答え:「申し訳ありませんが、御社の売上データにはアクセスできません」

当然だ。

あなたの会社の内部情報は、インターネット上にない。

だから、圧縮されていない。

だから、解凍しようがない。


同じように。

「私の今日のスケジュールを整理して」→ 知らない

「先週の会議で出た課題は?」→ 知らない

「うちのチームの雰囲気は?」→ 知らない

あなただけが知っている情報。

あなたの会社だけが知っている情報。

インターネット上に公開されていない情報。

これらは、圧縮されていない。


マイナーな情報、ニッチな情報も同じ。

インターネット上にあっても、データ量が少なすぎて十分に圧縮されていない。

だから、聞いても曖昧な答えしか返ってこない。

「この業界の特殊な慣習について教えて」

「この地方の方言の使い方は?」

「この分野のマニアックな知識は?」

答えられないか、間違った答えが返ってくる。


圧縮時の歪み ─ ハルシネーション

ここからが怖い話。

zipファイルを圧縮しすぎると、壊れることがある。

開いてみたら、ファイルが破損していた。

そういう経験、ないですか?


AIも同じ。

圧縮時に、パターンが歪むことがある。

これが「ハルシネーション」。

日本語で言うと「幻覚」。

AIが自信満々に、間違ったことを言う現象。


なぜ起こるのか?

AIは「パターン」を圧縮している。

「こういう文脈では、こういう言葉が続く」というパターン。

でも、このパターンが完璧じゃない。


たとえば、こんなことが起こる。

「〇〇という研究者の論文を教えて」

AIは答える。

「〇〇は△△大学の教授で、□□という論文を発表しています」

調べてみると…

その研究者は存在するけど、△△大学にはいない。

□□という論文は存在しない。


AIは嘘をつこうとしているわけじゃない。

圧縮されたパターンから「それっぽい」情報を解凍しただけ。

「研究者の情報を聞かれたら、大学名と論文名を答える」というパターン。

でも、具体的な内容は歪んでいた。

圧縮時に壊れたファイルを、そのまま解凍してしまった。


だから検証が必要

AIの答えは「圧縮されたパターン」。

正確とは限らない。


「AIが言ったから正しい」

これは、大きな間違い。

zipファイルから出てきたファイルが、必ず正しいとは限らない。

破損しているかもしれない。

古い情報かもしれない。

そもそも入っていない情報を、パターンで補完しているかもしれない。


だから、重要な情報は検証する。

AIの答えを出発点にして、自分で確認する。

「参考になる。でも、念のため確認しよう」

このスタンスが大事。


特に注意すべきケース:

  • 具体的な数字:統計データ、日付、金額
  • 固有名詞:人名、企業名、論文名
  • 最新情報:ニュース、法改正、新製品
  • 専門的な内容:医療、法律、財務

これらは、圧縮時の歪みが起こりやすい。

必ず一次情報で確認する習慣をつける。


今回の3つの洞察

  1. 圧縮時点の情報しかない

    • 学習時点以降の情報は知らない。構造的な限界
  2. 圧縮されていない情報は出てこない

    • あなただけの情報、社内情報、マイナー情報は対象外
  3. 圧縮時に歪むことがある(ハルシネーション)

    • 自信満々でも間違っている。必ず検証する

次回予告

AIの限界が見えてきた。

圧縮されたものしか出てこない。

圧縮時に歪むこともある。

でも、同じzipファイルでも、開き方で出てくるものが変わる。

解凍の仕方で、結果が変わる。

これが「プロンプト」の本質。

次回は、AIを上手に使うコツを見ていく。


次回:「解凍の仕方で結果が変わる ─ プロンプトの本質」