第8回: アルゴリズムが選択を操る ─ レコメンデーションの罠
YouTubeのおすすめ動画
YouTubeを開く。
おすすめ動画が並ぶ。
どれも、興味がある内容だ。
クリックする。
動画を見終わる。
次のおすすめも、興味がある。
またクリックする。
気づいたら、2時間。
でも、何か違和感がある。
同じような動画ばかり見ている。
同じような意見ばかり聞いている。
世界が狭くなっている気がする。
気づいているか? アルゴリズムが、あなたの選択を操っている。
アルゴリズムの仕組み
アルゴリズムは、あなたの過去の行動を学習する。
クリックした動画。
視聴時間。
いいね。
これを元に、「次のおすすめ」を最適化する。
目的は?
あなたの視聴時間を最大化すること。
だから、あなたが「絶対見る」動画を推薦する。
これが、パーソナライズドレコメンデーションだ。
一見、便利だ。
でも、裏側で何が起きているのか?
フィルターバブルの形成
あなたが好む動画ばかりが推薦される。
あなたが嫌いな動画は推薦されない。
結果?
あなたの世界観が狭くなる。
これが、フィルターバブルだ。
あなたは、自分の興味のある情報だけに囲まれる。
異なる意見、異なる視点が見えなくなる。
脳は、「選択肢が狭い」ことに気づかない。
なぜなら、アルゴリズムが見せている世界が「すべて」だと思っているからだ。
これが、罠だ。
例:政治的立場のフィルターバブル
あなたが右派の動画を見る。
YouTubeは、右派の動画ばかりを推薦する。
左派の意見が見えなくなる。
脳が「右派が正しい」と予測する。
なぜなら、周りの情報すべてが右派だからだ。
逆も同じだ。
左派の動画を見る → 左派の動画ばかり推薦される → 右派の意見が見えない。
アルゴリズムが、世界観を固定化している。
異なる意見に触れる機会を奪っている。
イーライ・パリサーの警告
「フィルターバブル」という言葉を作ったのは、イーライ・パリサーだ。
彼の著書『The Filter Bubble』(2011年)で警告している。
「パーソナライズドアルゴリズムは、世界を狭くする」
彼は、こんな実験をした。
友人2人に、同じキーワード「BP」でGoogle検索をさせた。
1人は環境活動家。もう1人はビジネスマン。
結果?
全く違う検索結果が表示された。
環境活動家 → BPの石油流出事故の記事
ビジネスマン → BPの株価情報
同じキーワードなのに、Googleが「あなたに合わせた」結果を返す。
これが、フィルターバブルだ。
あなたは、自分の興味に合った情報しか見ていない。
世界の全体像が見えていない。
エコーチェンバー効果
フィルターバブル + SNS = エコーチェンバー
エコーチェンバー(反響室)とは、同じ音が反響し続ける部屋のことだ。
SNSでも同じことが起きている。
あなたが投稿する → 同じ意見の人が反応する
→ あなたは「みんな同じ意見だ」と思う
→ さらに同じ意見を投稿する
→ さらに同じ意見の人が集まる
異なる意見が見えない。
脳が「みんな同じ意見だ」と予測する。
これが、確証バイアスを強化する。
確証バイアスとは、自分の信念を支持する情報だけを集める傾向のことだ。
アルゴリズムが、この確証バイアスを加速させている。
分断の加速
フィルターバブルとエコーチェンバーが、社会を分断している。
右派は右派の情報しか見ない。
左派は左派の情報しか見ない。
対話が成立しない。
なぜなら、見ている世界が違うからだ。
同じ事件を見ても、受け取る情報が違う。
同じニュースを見ても、解釈が違う。
アルゴリズムが、この分断を加速させている。
選択の錯覚
YouTubeで「選んでいる」と思っている。
でも、本当にそうか?
実際は、「選ばされている」。
アルゴリズムが選択肢を作っている。
あなたは、その中から選んでいるだけ。
例えば、本屋に行く。
棚には、数千冊の本がある。
あなたは、その中から選ぶ。
でも、YouTubeは?
おすすめ動画は、アルゴリズムが選んだ10本。
あなたは、その10本の中から選ぶ。
本当の選択肢は、何百万本もあるのに。
アルゴリズムが、選択肢を10本に絞っている。
これが、選択の錯覚だ。
本当の選択とは
本当の選択とは、選択肢を作ることだ。
例えば、旅行先を決めるとき。
「どこに行きたいか」を考える。
候補をいくつか挙げる。
その中から選ぶ。
これが、本当の選択だ。
でも、YouTubeは?
候補は、アルゴリズムが決めている。
あなたは、その候補の中から選んでいるだけ。
選択肢を作る段階が、奪われている。
「なぜこれが推薦されたのか」を考えない
おすすめ動画を見る。
「面白そう」と思ってクリックする。
でも、考えたことがあるか?
「なぜこれが推薦されたのか」
アルゴリズムは、何を基準に推薦しているのか?
あなたの視聴時間を最大化するため。
広告収入を最大化するため。
あなたの利益のためではない。
YouTubeの利益のため。
でも、脳は「これは自分に合っている」と予測する。
だから、クリックする。
アルゴリズムが、あなたの行動を操作している。
レコメンデーションの3つの基準
アルゴリズムは、何を基準に推薦しているのか?
基準1: 視聴時間の最大化
あなたが長く見る動画を推薦する。
なぜなら、視聴時間 = 広告収入だからだ。
基準2: エンゲージメントの最大化
いいね、コメント、シェアが多い動画を推薦する。
なぜなら、エンゲージメント = プラットフォームの活性化だからだ。
基準3: あなたの過去の行動
あなたが過去に見た動画に似た動画を推薦する。
なぜなら、似た動画 = 高い視聴確率だからだ。
どれも、あなたの成長や学びのためではない。
すべて、プラットフォームの利益のためだ。
「もっと知りたい」から「もっと見たい」へ
本来、情報を探す目的は?
「もっと知りたい」
でも、アルゴリズムは?
「もっと見たい」を作る。
知識や理解ではなく、視聴時間を最大化する。
だから、深い理解ではなく、浅い消費になる。
アルゴリズムの過激化
YouTubeのアルゴリズムには、もう1つの問題がある。
過激化だ。
あなたが政治的な動画を見る。
次に推薦される動画は、もっと極端な意見。
さらに見ると、さらに極端な意見。
なぜか?
極端な意見ほど、エンゲージメントが高いからだ。
過激な意見は、感情を刺激する。
怒り、驚き、恐怖。
感情が刺激されると、視聴時間が伸びる。
コメントが増える。
シェアが増える。
だから、アルゴリズムは過激な動画を推薦する。
これが、過激化の罠だ。
実例:陰謀論の拡散
ある研究がある。
YouTubeで「地球温暖化」を検索する。
科学的な動画を見る。
次のおすすめは?
「地球温暖化は嘘」という陰謀論の動画。
なぜか?
陰謀論の動画は、視聴時間が長い。
エンゲージメントが高い。
だから、アルゴリズムが推薦する。
アルゴリズムは、真実を基準にしていない。
視聴時間とエンゲージメントを基準にしている。
Netflix、Amazon、Spotifyも同じ
YouTubeだけではない。
Netflix → あなたが見そうな映画を推薦
Amazon → あなたが買いそうな商品を推薦
Spotify → あなたが聴きそうな音楽を推薦
すべて、パーソナライズドレコメンデーションだ。
便利だ。
でも、選択肢が狭くなる。
新しいジャンル、新しいアーティスト、新しい視点。
これらに出会う機会が減る。
アルゴリズムとの付き合い方
では、どうすればいいのか?
アルゴリズムを完全に避けることはできない。
でも、自覚することはできる。
1. 「なぜこれが推薦されたのか」を考える
おすすめ動画を見たとき、考える。
「これは本当に自分が見たいものか?」
「それとも、アルゴリズムが見せたいものか?」
2. 意図的に違う情報を探す
検索を使う。
おすすめではなく、自分で探す。
異なる意見、異なる視点を意図的に探す。
3. レコメンデーションをリセットする
YouTubeの視聴履歴を削除する。
一度、アルゴリズムをリセットする。
新しい情報に出会う機会を作る。
「偶然の出会い」を取り戻す
本屋に行くと、偶然の出会いがある。
目的の本を探しているとき、隣の本が目に入る。
「これも面白そう」
これが、偶然の出会いだ。
アルゴリズムには、偶然がない。
すべてが、計算されている。
偶然の出会いを取り戻せ。
検索ではなく、探索。
レコメンデーションではなく、発見。
次回予告
アルゴリズムが選択を操る仕組みを見てきた。
次は、通知だ。
なぜ集中しているときに通知が来ると、集中が戻らないのか?
なぜマルチタスクは効率的だと思ってしまうのか?
なぜ深い思考ができなくなったのか?
通知が、思考を分断している。
認知切替コスト、マルチタスクの錯覚、深い思考の喪失。
次回は、通知が思考を分断する仕組みを見ていく。
気づいているか? あなたの思考は、通知に支配されている。
まとめ:3つの洞察
-
フィルターバブルが世界を狭くする
- アルゴリズムは「あなたが好む情報」だけを推薦
- 異なる意見、異なる視点が見えなくなる
- 世界観が固定化され、分断が加速する
-
選択の錯覚
- 「選んでいる」と思っているが、実は「選ばされている」
- アルゴリズムが選択肢を作り、あなたはその中から選ぶだけ
- 本当の選択は、選択肢を作ること
-
アルゴリズムの基準はあなたの利益ではない
- 視聴時間の最大化、エンゲージメントの最大化
- 過激化の罠(極端な意見ほど推薦される)
- 真実ではなく、視聴時間を基準にしている
アルゴリズムが選択を操る。気づいたか?