
AIの言うことは本当に正しいのか——精度が高まるほど危険になる理由
近年、AIの精度は飛躍的に向上している。文章生成、画像認識、翻訳、診断、予測。どの分野でも「かなり当たる」レベルに到達し、日常生活や仕事に深く入り込んできた。
その一方で、私は次のような違和感を覚えている。
AIの言うことを、私たちは思っている以上に信じ始めていないか。
そして厄介なのは、この傾向が精度の向上とともに加速するという点だ。
精度が高い=正しい、という錯覚
人間の脳は合理的にできているようで、実はかなり単純なヒューリスティックを使っている。
- よく当たる
- 一貫している
- 感情的にぶれない
- 自信ありげに断言する
これらの特徴を持つ存在を、人は「信頼できるもの」と無意識に判断する。AIはまさにこの条件を完璧に満たす。
しかしここに、大きな落とし穴がある。
信頼しているのは内容ではなく、形式である
という点だ。
精度向上がもたらす逆説
皮肉なことに、AIがあまり賢くなかった頃、人はAIを疑っていた。
- 「本当かな?」
- 「一応、自分でも考えよう」
ところが精度が上がるにつれ、次第にこう変化する。
- 80%正しい → 確認する
- 95%正しい → 任せる
- 99%正しい → 従う
この段階で起きているのは、単なる利便性の向上ではない。
批判能力そのものの外注化
である。
人は考えなくなるのではない。
考えたつもりになる。
仏教的に見ると「新しい外道」
仏教の歴史を振り返ると、人は常に「正しさを保証してくれる何か」に依存してきた。
- 絶対的な聖典
- 超越的な神
- カリスマ的指導者
そして現代では、それがアルゴリズムに置き換わりつつある。
AIは自らを神と名乗らない。
教義も押し付けない。
だからこそ、かえって危険だ。「中立」「客観」「合理」
という仮面を被った、新しい権威。
これは仏教的に言えば、形を変えた外道依存に近い。
密教的視点:観想の主体が反転する
密教において曼荼羅とは、本来「多様な知や力を配置した地図」であり、行者はそれを観想し、使う主体である。
ところがAI時代には、次のような反転が起きる。
- 知の体系(曼荼羅)をAIが保持し
- 人間がそれを仰ぎ見る
主客が逆転し、
人間が観想する側ではなく、解釈される側になる。これは便利さと引き換えに、主体性を失う構造だ。
科学・社会的に見える具体的な危険
意見の均質化
AIは「もっとも無難な答え」「平均的な最適解」を得意とする。
その結果、
- 少数派の直感
- 未成熟なアイデア
- 詩的・曖昧な思考
が淘汰されやすくなる。
しかし歴史を見れば明らかなように、革新は常に例外から生まれてきた。
責任の消失
「AIがそう言ったから」
この一言は非常に危険だ。
判断の主体が曖昧になり、
倫理と責任の所在が蒸発する。間違いが起きたとき、
誰も引き受けなくてよくなる社会。
AIの最大の危険は「巧妙な誤り」
AIが間違えること自体は、実はそれほど問題ではない。
本当に危険なのは、
95%正しく、5%だけ方向づけられている答え
である。
人間は、
- 完璧な嘘より
- ほとんど真実な語り
に圧倒的に弱い。
これはプロパガンダや洗脳で古くから使われてきた構造だが、AIはそれを無意識に、しかも大量に再生産できる。
アイデンティティの問題とつながる
人がAIを信じたくなる背景には、
自分で決めることへの疲労
がある。
- 何が正しいか
- どう考えるべきか
- どの立場を取るべきか
それらをAIに委ねることで、アイデンティティが一時的に安定する。
しかしその代償として、
- 疑う力
- 迷う力
- 自分で引き受ける覚悟
が失われていく。
では、どう付き合うべきか
重要なのは、AIを拒絶することではない。
AIは「真理」ではなく「仮説生成装置」
仏教で言えば、AIは方便として使うべき存在だ。
- 参考にはする
- しかし依存しない
- 最終判断は引き受ける
あえて反対意見を考える
AIの答えを読んだら、
- その逆を想像する
- 弱点を探す
- 少数派の視点を探す
これは、AI時代の新しい修行かもしれない。
結論:正念は「信じない力」になる
AIの精度は、これからも確実に上がる。
それ自体は止められないし、止めるべきでもない。しかし同時に、
疑う力を鍛えなければ、自由は静かに失われる。
AIを使うことと、AIを信じることは全く違う。
精度が高い時代だからこそ必要なのは、
どれだけ賢く使えるかではなく、
どれだけ距離を保てるかなのではないだろうか。
考えることを手放さない限り、
AIは脅威ではなく、ただの道具であり続ける。
個人的後記
AIはフィードバックやハルシネーションの修正を行い続けると全体の整合性が保てなくなりバグる。
人間社会が不完全でありそれを学習させることは不完全なAIが誕生するということでもある。
AIに全てを任せても人間側のバイアスによってそれはハルシネーションと断定されてしまうだろう。
既に限界に近い状態である。