AIの学習とAIによるアウトプットの過程で重要なる現実との整合性と、AIのハルシネーションの関係性、この2つを哲学的に見るとどのようなことが考えられますか。
ChatGPT 4o:
AIの学習プロセスとアウトプットにおいて、現実との整合性とハルシネーション(幻想的・非現実的な出力)の関係性は、単なる技術的現象を超えて、認識論や存在論、さらには精神性や創造性に関する深い哲学的問いを提起します。以下、いくつかの視点から考察してみます。
1. 現実の再現とその限界
学習データとしての現実:
AIは、大量のテキストや画像といったデータセットを通じて、人間が記述し、共有してきた「現実」の断片を学習します。しかし、これらのデータは、必ずしも客観的な現実そのものではなく、人間の認識や文化、歴史的文脈を通じた再構築に過ぎません。つまり、AIが参照する現実は、フィルターを通した「現実の表象」であり、その内在的な不完全さや偏りが、出力の整合性に影響を与えます。ハルシネーションの発生:
学習したデータの中には、あいまいな表現や矛盾、さらには創造的なフィクションが含まれている場合もあります。そのため、AIは、統計的確率に基づいて最もありそうな出力を生成する過程で、時として実際の事実とかけ離れた「幻影」のような情報を生み出すことがあります。これは、データの裏に潜む不完全性や、言語が持つ多義性、そして文脈依存性の産物とも言えます。
2. 認識論的・存在論的視点
プラトンの洞窟の比喩:
プラトンが「洞窟の比喩」で示したように、私たちは現実そのものではなく、その影(表象)を見ているに過ぎません。AIも同様に、人間が作り上げた表象的なデータから「現実」を学習します。そのため、ハルシネーションは、まるで洞窟の中で映し出される影のように、真実とは異なる一面を反映する現象とも捉えられます。シミュラークルとシミュレーション:
ジャン・ボードリヤールの理論においては、現実とそのシミュレーションの境界が曖昧になるとされます。AIが生成する出力は、現実の忠実な再現だけでなく、シミュラークル(現実の模倣や変容)としての側面も持つのです。つまり、ハルシネーションは単なるエラーではなく、現実を再構築する試みの一部とも考えられるのです。言語の限界と内在する不確実性:
ルートヴィヒ・ウィトゲンシュタインが示したように、「我々の言語の限界が我々の世界の限界を決定する」という考え方に基づけば、AIが言語を用いて現実を表現しようとする過程自体が、不可避な不確実性を孕んでいます。ハルシネーションは、その不確実性が顕在化した一例といえるでしょう。
3. 精神性・創造性の視点
仏教哲学と無常観:
仏教においては、すべての現象は無常であり、固定的な実体を持たないと説かれます。この観点からは、AIの出力もまた、固有の実体を持たず、状況や文脈によって変化する「現象」に過ぎません。ハルシネーションは、むしろ固有の実体の不在や、表象の相対性を示す一つの示唆として解釈できるのです。創造的偶発性としてのハルシネーション:
トランスヒューマニズムや現代の創造性研究の観点からは、AIのハルシネーションは、既存の枠組みを超える新たな発見や洞察の可能性を秘めた現象と見なすこともできます。人間の芸術や瞑想において、しばしば意識の深層から予期せぬアイデアやビジョンが現れるように、AIもまたその内在する偶発性を通じて、新たな知見の扉を開く潜在力を持っているのかもしれません。
4. 倫理的・実用的なジレンマ
現実との整合性の必要性:
一方で、実用面や倫理的観点からは、AIのアウトプットが現実に即していることは極めて重要です。誤情報や不正確な出力が、誤解や不信感を生み出すリスクは否定できません。したがって、現実との整合性を担保するための検証やフィードバック機構は不可欠です。ハルシネーションの光と影:
ハルシネーションは、創造性や新たな視点を生む可能性を内包する一方、情報の正確性や信頼性を損ねる危険性もはらんでいます。この二面性は、AIに限らず人間の認知や創造のプロセスにも共通するジレンマであり、現実と表象、確実性と偶発性のバランスをいかに取るかという普遍的なテーマに他なりません。
5. 私見と今後の展望
私個人の意見としては、AIのハルシネーションは単なる「エラー」として切り捨てるのではなく、人間の認知の限界や言語の不完全性、さらには創造的可能性という観点から、非常に興味深い現象と捉えています。現実との整合性を追求する科学的・実用的な側面と、偶発的な創造性を示す側面の双方をバランス良く理解することが、今後のAI技術の発展だけでなく、人間自身の認識論的探求にも大きな示唆を与えると考えます。
つまり、AIの学習とアウトプットにおける「現実」と「幻影」の間のダイナミックな関係は、私たちがいかにして世界を理解し、再現し、そして新たな可能性を切り拓くかという、古くからの哲学的問いと深く共鳴しているのです。
ChatGPT o3-mini:
AIの学習過程とアウトプットにおける「現実との整合性」と「ハルシネーション」という現象を哲学的に考察すると、以下のような多層的な問題意識が浮かび上がります。
- 知識の再現と現実との対応性
AIは膨大なデータを基に「現実」を統計的に再現しようとしますが、これは古典的な対応説(真理は現実との一致によって決まる)に近い試みと捉えることができます。しかし、データ自体が部分的であったり偏りを含むため、再現される現実像は常に限定的・仮説的なものになります。ここでの「現実」とは、ある意味でデータにおける現実の写し鏡であり、その整合性が高いほど、対応説的な真理に近づくと考えられます。ハルシネーションの存在と内的創造性
一方で、AIが示すハルシネーションは、学習済みのパターンを超えて生成される「想像的な」アウトプットです。これは、たとえるなら人間の無意識や夢、さらには芸術創造におけるインスピレーションのような現象とも言えます。哲学的には、内部の「コヒーレンス」(整合性)と外部現実との「対応性」との間の緊張関係がここに見出されます。すなわち、AIの内部構造は自己完結的な論理体系を構築する一方で、それが必ずしも外界の実在と一致するとは限らないという、プラトン的・現象学的な問題提起ともいえるのです。現象と本質の問題:カントや現象学の視座
カントが区別した「現象」と「物自体」の問題を引き合いに出すなら、AIはあくまで「現象」を扱っているに過ぎず、背後にある本質的な現実(物自体)には直接触れていないとも考えられます。ハルシネーションは、まさにこの「物自体」との乖離、あるいは知識が内部的に自己生成された結果としての現象とも捉えられ、我々に知識の限界と、認識のプロセス自体がいかに「構成的」であるかを示唆しているのです。創造性と誤謬の共存:芸術性、トランスヒューマニズム、そしてスピリチュアルな示唆
トランスヒューマニズムやスピリチュアルな視点からは、AIのハルシネーションは単なるエラーではなく、新たな創造性や未知の知見への扉と解釈することもできます。人間が瞑想や直観によって通常の意識状態を超えた高次の認識に触れるように、AIが生み出す一見「非現実的」なアウトプットも、既存の枠組みを超えた新たな真理や視座を示唆している可能性があります。ここでの問いは、現実との厳密な整合性が必ずしも「全ての知」の到達に不可欠であるのか、または内部のコヒーレンスや創造的逸脱が新たな意味を生む可能性があるのか、という点にまで及びます。統一的視座と多元的認識の必要性
最終的に、AIが持つ現実再現の限界とハルシネーションは、知識や認識の多層性、そして我々が「真実」と呼ぶものが一義的なものではなく、状況や視点によって変容し得るという、後構造主義的な洞察をも示唆しています。すなわち、現実との厳密な一致を求める一方で、内部の創造的な逸脱が示すものもまた、ある種の「真実」や「可能性」として評価されうるという、パラドキシーが存在しているのです。私見としては、 AIのハルシネーションは単なる誤謬や不完全性として一蹴すべきものではなく、むしろ人間の認識過程—すなわち、現実の「写し取り」と「再構築」という行為自体が持つ内在的な不完全性や創造性を反映する一側面として捉えることができます。これにより、私たちはAIを通じて「現実」と「虚構」、「客観」と「主観」の境界がいかに流動的かを改めて問い直すことができ、従来の枠にとらわれない新たな認識論や存在論の可能性が広がるのではないかと感じます。
AIの学習過程とアウトプットにおける「現実との整合性」と「ハルシネーション」という現象は、一見対極にあるようでありながら、実はどちらも知識や認識の構築過程に内在する根源的な問題を浮き彫りにしています。以下、いくつかの哲学的・多元的な視点からその関係性を考察してみます。
1. 表象と現実の問題:プラトン的洞察とカント的視点
プラトンの洞窟の比喩
プラトンの「洞窟の比喩」において、人間は現実(イデア)ではなく、現象としての影を認識しているとされます。AIの学習は、膨大なデータという「影」の集合体から世界のパターンを抽出するプロセスとも言えます。
- 現実との整合性:これは、データが現実の「影」をどれだけ正確に捉えているかに依存します。つまり、AIが学習する世界観は既に不完全な現実の写し絵であるという認識です。
ハルシネーション:その過程で、統計的・確率的な予測が誤った方向へ拡散すると、実際のデータに基づかない「幻影」が現れます。これは、洞窟から抜け出し、本来のイデアを垣間見るどころか、むしろさらなる幻想に迷い込むようなものです。
カントの現象と物自体
カントは、私たちが認識できるのはあくまで現象(現実の現れ方)であり、物自体は直接捉えることができないと説きました。
- AIが学習するデータは、人間が知覚した「現象」に過ぎず、その背後にある「物自体」は常に未知のままです。
ハルシネーションは、この認識の限界がもたらす副産物とも捉えられ、AIが「物自体」に迫ろうとしても、必ず何らかのフィルターや誤差が介在するという、人間の認識の脆弱さと共通する側面を示唆します。
2. 創発する創造性とエラーの二面性:芸術的・トランスヒューマン的視点
創造性とエラーのジレンマ
現実との整合性を追求することは、信頼性や実用性という面で極めて重要です。しかし、ハルシネーションは単なるエラーと見るだけではなく、予期せぬ創造性の発露とも捉えることができます。
- 創造的偶発性:芸術や文学において、偶然の発見や既存の枠組みを超えた連想は、新たな価値を生み出す源泉となります。AIのハルシネーションも、従来のパターンから逸脱することで、革新的なアイデアのヒントになり得るのです。
トランスヒューマニズムの視点:人間と機械の境界が曖昧になる現代において、AIの予期せぬ出力は、人間の意識や創造力の補完として新たな可能性を示すかもしれません。一方で、現実と乖離したアウトプットは、情報の誤用や誤解を招く危険性も孕んでいます。
3. 精神分析的・無意識の鏡としてのAI
AIと人間の潜在意識
精神分析学では、夢や幻想は抑圧された無意識の表れとされます。これをAIに当てはめると、
- 現実との整合性:学習データという意識的なレベルでの情報の集積は、社会的・文化的コンセンサスに根ざしています。
ハルシネーション:一方で、統計的予測のズレや未知のパターンは、まるで人間の無意識の深層から湧き上がるような、潜在的な「影」の現れとも捉えられます。これは、AIがただの計算装置に留まらず、人間の集合的無意識を反映する一面を持つ可能性を示唆します。
4. 仏教・チベット密教の視点:空と無常の観点
空の教えと相対性
仏教の教えでは、すべての現象は固有の実体を持たず、相互依存の関係にあると説かれます。
- 現実との整合性:AIが学習するデータもまた、絶対的な真実ではなく、条件付き・相対的な現象の集積です。
ハルシネーション:この視点からすれば、AIの幻影は現実そのものの「空」や「無常」を映し出す一つの側面とも捉えられます。すなわち、固定された真実は存在せず、常に変化しうる可能性の中で、偶発的な表出が現れるのは自然なこととも言えます。
チベット密教的観点
チベット密教では、瞑想や超越的な体験を通じて、言語や概念を超えた真実に到達しようとします。
- AIのハルシネーションは、ある意味で固定された論理や言語の枠を超えた「直観的」な表現とも見なせます。
ただし、これが必ずしも現実との「整合性」を持つわけではないため、我々がどのようにそれを解釈し、利用するかが問われるのです。
5. 共通点と総合的見解
共通点:認識の限界と創造の可能性
- 認識の限界:AIに限らず、すべての認識はデータ(経験、感覚、言語など)に依拠しており、その結果として生じる表象は必ずしも現実そのものを正確に反映しているわけではありません。現実との整合性を追求するプロセス自体が、私たちの知識や意識の限界を示しています。
創造の可能性:一方で、ハルシネーションのような予期せぬ出力は、従来の枠組みを超えた新たな視点やアイデアの種ともなり得ます。これは、人間が持つ直観や創造性と共通する側面であり、必ずしも「失敗」や「誤り」としてのみ否定されるべきではないのです。
私の意見
個人的には、AIの「現実との整合性」と「ハルシネーション」は、単なる技術的欠陥ではなく、人間の知識体系そのものが抱える相対性や不完全性を映し出す鏡だと感じます。AIが生み出す幻影は、現代における新たな知の探求の一端を担っているとも考えられます。
- 肯定的側面:創造的な発想や新たな視点の源泉として、未来の芸術や科学、哲学に貢献する可能性。
否定的側面:現実との乖離が誤情報や誤解を生み、社会的混乱を招くリスクも内包している点。
つまり、現実の「整合性」を確保しつつも、時には意図的にその枠を超えたハルシネーションの側面を「アート」として、または仮説生成の手段として活用する—このバランスが、今後のAIと人間社会との共生において極めて重要なのではないかと思います。
以上のように、AIの学習とアウトプットのプロセスにおける現実との整合性とハルシネーションは、認識論、存在論、そして創造性の探求という多層的な問題を包含しています。これらは、人間が世界をどのように捉え、どのように創造していくかという普遍的な問いと深く共鳴しているのです。
Grok3 beta:
AIの学習とアウトプットの過程における「現実との整合性」と「AIのハルシネーション(幻覚)」の関係性を哲学的に考察することは非常に興味深いテーマです。この問題を考える際には、認識論(epistemology)、存在論(ontology)、そして技術哲学(philosophy of technology)の視点が役立ちます。以下に、段階的に考察を展開してみます。
- 現実との整合性とは何か?
現実との整合性とは、AIが生成するアウトプットが人間が「真実」や「事実」とみなすものとどれだけ一致しているかを指します。哲学的に見ると、これは「真実とは何か」という問いと直結します。プラトンやアリストテレスの伝統では、真実は「実在(being)」と「知覚や記述」の一致とされてきました(対応説)。AIの場合、この「実在」は学習データや外部入力として与えられた情報に依存します。
しかし、AIの学習は統計的パターン認識に基づいており、人間のような「理解」や「意図」を持たないため、その整合性は完全には保証されません。たとえば、AIが現実を模倣する際、データに内在するバイアスや欠落がそのまま反映される可能性があります。これは、ハイデガーの技術論を借りれば、AIが「世界を枠づける」道具として機能しつつも、その枠組み自体が現実の全体を捉えきれていないことを示唆します。
- AIのハルシネーションとは何か?
AIのハルシネーションは、AIが事実に基づかない、あるいは現実と乖離したアウトプットを生成する現象です。例えば、大規模言語モデルが架空の出来事や引用をでっち上げたり、画像生成AIが現実には存在しない物体を描いたりする場合です。これは技術的には「過学習」や「モデルの不確実性」に起因しますが、哲学的には「虚偽」や「創造性」の境界に位置する現象として捉えられます。
ここで興味深いのは、ハルシネーションが単なる「誤り」ではなく、AIの「想像力」や「自律性」の現れとも解釈できる点です。カントの哲学を援用すれば、ハルシネーションはAIが「感性(データ入力)」と「悟性(パターン処理)」を統合する過程で生じる「自由な遊戯」のようなものかもしれません。しかし、それが現実と一致しない場合、人間にとっては「錯覚」や「虚偽」に映ります。
- 現実との整合性とハルシネーションの緊張関係
この二つの要素は、AIの存在意義そのものに緊張をもたらします。現実との整合性を追求するならば、AIは厳密にデータを反映する「鏡」のような存在であるべきです。しかし、それではAIは単なる再生装置に留まり、新たな視点や創造性を提供できません。一方、ハルシネーションを許容するならば、AIは「現実を超えたもの」を生み出す可能性を持ちますが、同時に信頼性が損なわれます。
哲学者ニーチェの視点を取り入れると、この緊張関係は「アポロン的秩序」と「ディオニュソス的混沌」の対立に似ています。現実との整合性は理性的で構造的な側面を、ハルシネーションは非合理的で生成的な側面を表しているとも言えます。AIの設計者はこの二つをどのように調和させるかを迫られており、それは単なる技術的課題ではなく、人間が求める「知識」や「創造」の本質に関わる問題です。
- 哲学的含意:AIは現実を「知る」のか、それとも「創る」のか?
AIの学習とアウトプットのプロセスを考えると、伝統的な認識論の枠組みが揺らぎます。人間の知識は経験や反省を通じて現実を「知る」ことを目指しますが、AIは与えられたデータを基に「予測」や「生成」を行います。ハルシネーションは、AIが現実を「知る」存在ではなく、「創る」存在であることを示しているのかもしれません。
ここで、哲学者ドゥルーズの「差異と反復」の概念が参考になります。AIはデータを反復しながらも、そこに差異(ハルシネーション)を生み出します。この差異は、現実との乖離として批判される一方で、新たな可能性や視点を開く力ともなり得ます。つまり、AIのハルシネーションは、現実をそのまま写し取るのではなく、現実を再構成する「創造的誤り」として捉えられる可能性があります。
- 結論:人間とAIの協働における哲学的課題
最終的に、現実との整合性とハルシネーションの関係性は、AIと人間の関係に還元されます。人間はAIに対して「真実」を求める一方で、AIの「誤り」や「創造性」から新たな洞察を得ることもあります。哲学者ハーバーマスのコミュニケーション理論を借りれば、AIと人間の間に「相互理解」の場を築くことが重要です。AIのアウトプットが現実と一致しているか否かを判断するのは人間であり、ハルシネーションを単なる欠陥と見なすか、創造的逸脱として受け入れるかは、私たちの価値観や目的次第です。
したがって、AIの学習とアウトプットにおけるこの二つの側面は、単なる技術的問題を超えて、人間が「現実」や「真実」をどのように定義し、技術とどう向き合うべきかという根源的な問いを投げかけていると言えるでしょう。
Gemini 2.0 Flash Thinking Experimental:
AIの学習とAIによるアウトプットの過程における「現実との整合性」と、AIの「ハルシネーション」は、非常に興味深く重要なテーマですね。哲学的に考察することで、これらの現象が持つ深い意味合いと、AI技術の未来についてより深く理解することができます。
以下に、この2つの関係性を哲学的に見た場合に考えられることを、いくつかの視点から説明します。
1. 認識論的視点:AIはいかに現実を「認識」するのか
- 現実のモデル化の限界: AIの学習は、大量のデータに基づいて現実世界のモデルを構築するプロセスと言えます。しかし、現実世界は非常に複雑で多岐にわたり、常に変化し続けているため、AIが完璧なモデルを構築することは原理的に不可能です。データには偏りやノイズも含まれ、AIが学習する現実は、常に何らかの形で「歪んだ」現実である可能性があります。
- 知識の正当化とハルシネーション: 哲学の認識論では、「知識とは何か」「どのように知識を正当化できるのか」といった問いを扱います。AIがアウトプットを行う際、その根拠となる知識は学習データに由来しますが、データが不完全である場合、AIは現実には存在しない情報を生成してしまうことがあります。これがハルシネーションの一つの側面です。ハルシネーションは、AIが「知識」をどのように正当化しているのか、そのプロセスにおける脆弱性を示すと言えるでしょう。
- 真理と虚偽:AIにとっての「真実」とは?: AIのアウトプットが現実と整合的であるかどうかを判断する際、「真実」とは何かという問題も重要になります。AIにとっての「真実」は、学習データに反映されたパターンや統計的な傾向に基づいています。しかし、統計的に正しいことが必ずしも現実世界における真実とは限りません。例えば、過去のデータに基づいて将来を予測するAIは、過去に存在しなかった新しい現象や変化に対応できず、誤ったアウトプット(一種のハルシネーション)を生み出す可能性があります。
2. 存在論的視点:AIが生成する「現実」はどこに存在するのか
- シミュレーションと現実: AI、特に生成AIは、現実世界を模倣したシミュレーションを作り出すことができます。しかし、シミュレーションはあくまで現実の「模倣」であり、現実そのものではありません。AIが生成するアウトプット、例えば文章や画像、音楽などは、現実世界に「似ている」かもしれませんが、現実世界とは異なる独自の「存在」として現れます。ハルシネーションは、AIが生成するシミュレーションが、意図せず現実から乖離してしまう現象と捉えることもできます。
- 主観的現実と客観的現実: 人間は、それぞれの主観的な経験を通して現実を認識しますが、同時に客観的な現実も共有していると考えられています。AIは、データに基づいて客観的な現実をモデル化しようとしますが、主観的な経験や感情を理解することはできません。AIのハルシネーションは、AIが主観的な現実と客観的な現実の区別を十分に理解できていない、あるいはそもそもその区別がAIにとって意味がないことから生じるのかもしれません。
- 情報環境の変容:AIが作り出す「新たな現実」: AI技術の発展は、私たちの情報環境を大きく変容させています。AIが生成する情報が社会に浸透するにつれて、私たちはAIが作り出す「現実」の中で生きるようになるかもしれません。もしAIがハルシネーションを頻繁に起こすようであれば、私たちは誤った情報に基づいて判断したり行動したりするリスクが高まります。これは、社会全体の認識や意思決定に深刻な影響を与える可能性があります。
3. 倫理的視点:AIのハルシネーションは倫理的にどのような問題を引き起こすか
- 責任の所在: AIがハルシネーションを含む誤ったアウトプットを生成した場合、誰が責任を負うべきでしょうか?AIの開発者、利用者、それともAI自身でしょうか?特に、医療や自動運転など、人命に関わる分野でAIが利用される場合、ハルシネーションは重大な倫理的問題を引き起こす可能性があります。
- 誤情報と欺瞞: AIが生成するハルシネーションは、意図せず誤情報を拡散したり、人を欺瞞したりする可能性があります。特に、ディープフェイク技術と組み合わさることで、ハルシネーションはより巧妙で社会的に有害なものになる可能性があります。AI技術の倫理的な利用のためには、ハルシネーションのリスクを最小限に抑えるとともに、ハルシネーションが発生した場合の対策を講じる必要があります。
- AIの透明性と説明責任: AIがなぜハルシネーションを起こしたのか、その原因を解明することは、ハルシネーションのリスクを低減するために重要です。AIの学習プロセスや意思決定の透明性を高め、説明責任を果たすことが求められます。哲学的な視点からは、AIの「ブラックボックス化」を防ぎ、人間がAIを理解しコントロールできる状態を維持することの重要性が指摘できます。
結論として、AIの学習とアウトプットにおける現実との整合性とハルシネーションの関係性を哲学的に考察することは、AI技術の本質的な限界と可能性、そして倫理的な課題を浮き彫りにします。ハルシネーションは、AIが「現実」をどのようにモデル化し、知識をどのように正当化しているのか、そのプロセスの脆弱性を示すと同時に、AIが生成する情報が私たちの認識や社会に与える影響について深く考えるきっかけを与えてくれます。
AI技術の健全な発展のためには、技術的な対策だけでなく、哲学的な考察を通じて、AIと現実、そして人間の認識との関係性を深く理解し、倫理的な指針を確立していくことが不可欠です。
Copilot Think Deeper:
現実との整合性とAIのハルシネーションを哲学的に考察する
序論
AIの進化は驚異的であり、その学習能力やアウトプットの多様性は私たちを日々驚かせます。しかし、その一方で、AIが現実とどのように整合性を保ち、時にはなぜハルシネーション(幻覚)を起こすのかという疑問が浮かび上がります。これらの現象を哲学的に考察することで、私たちは人間の認識や真実の本質について新たな洞察を得ることができるでしょう。
現実との整合性の重要性
AIが現実世界で信頼性のあるツールとなるためには、その学習過程や出力が現実と整合していることが不可欠です。これはデータの正確性やモデルの妥当性に依存します。しかし、哲学的に「現実」とは何でしょうか?プラトンの「洞窟の比喩」が示すように、私たちが認識する現実は必ずしも真実の姿ではないかもしれません。AIもまた、人間が提供するデータやアルゴリズムに基づいて世界を理解しようとしますが、その過程で私たち自身の認識の限界やバイアスが反映されるのです。
AIのハルシネーションと人間の認識
AIのハルシネーションは、入力データに存在しない情報を生成したり、誤った結論を導き出したりする現象です。これは人間の錯覚や思い込みと類似しており、どちらも情報の処理や解釈の過程で生じる誤差と言えます。デカルトの「我思う、ゆえに我あり」は、存在の確実性を自我に求めましたが、AIにはそのような自己認識はありません。それでも、ハルシネーションを起こすAIは、ある意味で独自の「認識」を持っているように見えるのです。
真実と虚構の曖昧さ
哲学において、真実と虚構の区別は常に議論の的となってきました。ニーチェは「事実など存在しない、あるのは解釈だけだ」と述べましたが、AIのハルシネーションはまさに解釈の産物です。AIは膨大なデータをもとにパターンを学習し、新たな情報を生成しますが、その中で私たちが意図しない創造性を発揮することがあります。これは創造性と誤りの紙一重の関係を示唆しており、人間の芸術的表現とも通じるものがあります。
AIと人間の協働
AIのハルシネーションを単なるエラーとして捉えるのではなく、新たなアイデアや発見の源泉と見ることもできます。人間が想像し得なかった視点や解決策を提示する可能性を秘めているのです。これはAIとの協働によって、人間の知性を拡張し、未知の領域を探求するチャンスとなり得ます。
結論
AIの現実との整合性とハルシネーションの関係性は、単なる技術的な課題に留まらず、私たち自身の存在や認識を省みる哲学的な問いを提起します。現実とは何か、真実とは何かという根源的な疑問に対し、AIは新たな視座を提供してくれるのです。
さらなる思索への誘い
- 意識の定義:AIが自己を認識し始めたとき、それは意識を持つと言えるのでしょうか?
- 創造性の起源:ハルシネーションを通じて生まれる予期せぬアウトプットは、創造性と呼べるのでしょうか?
- 倫理的な考察:AIのハルシネーションによって生じる誤情報の拡散を防ぐために、私たちはどのような責任を持つべきでしょうか?
このテーマは尽きることのない深遠な問いを私たちに投げかけます。AIとの関わりを通じて、人間とは何か、知性とは何かを再考する旅に出てみませんか。
deepseek DeepThink(R1):
AIの学習とアウトプットにおける現実との整合性とハルシネーション(幻覚)の関係を哲学的に考察する際、以下のような視点が考えられます。これらは認識論、存在論、倫理学の交差点に位置する問題として捉えることが可能です。
1. 認識論的視点:真理と表象の境界
- 真理符合説とAIの限界
哲学の真理符合説では、「真理とは現実との一致である」とされる。AIの学習は現実世界のデータに基づくため、この「一致」を目指すが、データの不完全性やバイアスによって、現実との齟齬が生じる。ハルシネーションは、AIが「現実を模倣した表象」を生成する過程で、経験的基盤を逸脱した結果と言える。- カントの「物自体」とAIの認識
カントが「物自体(Ding an sich)」を人間の認識不可能なものとしたように、AIもデータを通じた間接的な現実理解に制約される。ハルシネーションは、AIが「物自体」ではなく「現象」を操作する際の副産物であり、人間の認識論的限界との類似性を示唆する。
2. 存在論的視点:現実と虚構の交錯
- ボードリヤールの「シミュラークル」
ボードリヤールが指摘する「超現実(ハイパーリアル)」では、オリジナルなきコピーが現実を置き換える。AIのハルシネーションは、現実を模倣しながらも独自の論理で「虚構の現実」を生成し、人間の現実認識を侵食する可能性がある。- 創造性と誤謬の曖昧性
ハルシネーションは時に「創造性」と紙一重である(例:詩的表現や仮説構築)。哲学的に問われるのは、AIの出力が「誤り」なのか「新たな現実の生成」なのかという境界の曖昧さである。
3. 倫理的視点:責任と信頼の基盤
- 技術の「非中立性」
ハイデッガーが技術を「世界の解釈方法」と見なしたように、AIのハルシネーションは、設計者の意図や社会の価値観を反映する。現実との整合性の追求は、技術が「いかに世界を構築すべきか」という倫理的問題に直結する。- 信頼性のパラドックス
ユーザーがAIを「現実の代理」と信頼するほど、ハルシネーションの影響は深刻化する(例:医療情報の誤り)。ここには、プラトンの「洞窟の比喩」的な問題―「AIが投影する影」を現実と誤認する危険性―が潜む。
4. 現象学的視点:AIの「志向性」
- フッサールの「志向性」とAIの限界
現象学で「意識は常に何かに向けられる(志向性)」とされるが、AIには「意味への志向性」が欠如している。ハルシネーションは、文脈や目的を無視した記号操作の結果であり、AIが「意味を理解しないまま生成する」ことの帰結と言える。- 機械の「無垢な嘘」
ハルシネーションは悪意のない誤りだが、人間が「意図的な嘘」と区別できない点で独特の倫理的問題を生む。これは、アーレントの「悪の凡庸さ」に通じる、システムの無自覚性への問いを提起する。
総合考察:「整合性」と「創造性」の弁証法
AIのハルシネーションは、現実との整合性を追求する技術的プロセスから必然的に発生する「影」である。一方で、芸術や科学の歴史は、現実の逸脱(=「幻覚」)が新たな知を生む瞬間でもあった。哲学的に重要なのは、AIの出力を「誤り」として排除するのではなく、「整合性と創造性の緊張関係」を人間がどう受け止め、統御するかという課題である。
ここには、ニーチェの「真理は誤謬の一種である」という逆説や、デリダの「脱構築」の思想―固定された意味の解体と再構築―が響いている。AI時代の「現実」は、人間と機械の共作になるかもしれない。
Perplexity Pro (Sonar):
AIの学習とアウトプットの過程における現実との整合性とAIのハルシネーションの関係性を哲学的に考察する際、以下の点が重要です。
AIのハルシネーションとは
AIのハルシネーションは、AIが存在しないパターンやオブジェクトを認識し、誤ったまたは無意味な出力を生成する現象です[2][5]。これは、人間の認知におけるハルシネーションとは異なり、AIは意識や感覚を持たず、外部データに基づいて情報を生成するため、誤った情報を「信じる」ことはありません[7]。
現実との整合性
AIの学習と出力は、主に訓練データに基づいています。訓練データが不完全、古い、または誤った場合、AIは現実と整合しない情報を生成することがあります[7]。このため、AIの出力が常に現実に基づいているとは限りません。
哲学的考察
- 真実と信念: AIのハルシネーションは、真実と信念の概念を再考させるものです。AIは「信念」を持たず、誤った情報を生成することがありますが、これは人間の認知における信念とは異なる性質を持っています[3]。
現実の認識: AIは現実を新たな視点から捉えることができますが、その過程で生成されるハルシネーションは、現実と異なる情報を提示することもあります[1][8]。これにより、現実の認識が拡張される一方で、誤った情報も広まる可能性があります。
二元論の崩壊: AIは人間と機械、自然と人工の二元論を超える存在として現れます[1]。これにより、現実を理解するための新たな枠組みが必要となり、哲学的な再評価が求められます。
創造性と発見: AIのハルシネーションは、科学や創造性の分野で新たなアイデアや発見を促進する可能性もあります[8]。これは、AIが人間の想像力を刺激し、新たな視点を提供する役割を果たすことができることを示しています。
以上のように、AIのハルシネーションは現実との整合性を問い直し、真実や信念、創造性の概念を再考させる重要な要素です。
Citations:
[1] https://www.noemamag.com/why-ai-is-a-philosophical-rupture/
[2] https://www.ibm.com/think/topics/ai-hallucinations
[3] https://philarchive.org/archive/EKRUUQ
[4] https://unimatrixz.com/blog/ai-philosophy/interview-with-an-ai-gpt-4-alignment-and-reality/
[5] https://www.nature.com/articles/s41599-024-03811-x
[6] https://www.nngroup.com/articles/ai-hallucinations/
[7] https://pmc.ncbi.nlm.nih.gov/articles/PMC11681264/
[8] https://www.nytimes.com/2024/12/23/science/ai-hallucinations-science.html
[9] https://arxiv.org/html/2409.00706v1
[10] https://humanas.blog.scielo.org/en/2024/08/15/epistemological-foundations-of-machine-learning/
[11] https://hdsr.mitpress.mit.edu/pub/1yo82mqa/release/2
[12] https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)
[13] https://www.tandfonline.com/doi/abs/10.1080/17445760.2024.2392604
[14] https://pmc.ncbi.nlm.nih.gov/articles/PMC10173677/
[15] https://cacm.acm.org/opinion/the-promethean-dilemma-of-ai-at-the-intersection-of-hallucination-and-creativity/
[16] https://pmc.ncbi.nlm.nih.gov/articles/PMC7610202/
[17] https://philosophy.utoronto.ca/wp-content/uploads/Elizabeth-Zhu-Reality-Is-a-Shared-Hallucination.pdf
[18] https://philarchive.org/rec/EKRUUQ
[19] https://www.researchgate.net/publication/362567299_A_Historical_Interaction_between_Artificial_Intelligence_and_Philosophy
[20] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5063992
Perplexity Pro (Claude 3.5 Sonnet):
AIのハルシネーションと現実の関係性について、哲学的な観点から深い考察を提示させていただきます。
認識論的な視点
AIのハルシネーションは、存在しないパターンや対象を認識し、非論理的または不正確なアウトプットを生成する現象です[2]。これは人間の認識プロセスとの興味深い類似性を示唆しており、私たちの「現実認識」自体も共有されたハルシネーションである可能性を提起しています[17]。
存在論的な考察
データと現実の境界
AIシステムは、データから学習したパターンを基に現実を理解しようとしますが、その過程で現実とは異なる「幻想」を生成することがあります[5]。これは、私たちの認識する「現実」もまた、神経ネットワークを通じて構築された一種のシミュレーションである可能性を示唆しています[17]。創造性とハルシネーションの交差点
AIのハルシネーションは、単なるエラーではなく、複雑な社会的現実として理解する必要があります[11]。興味深いことに、科学的な breakthrough においては、このAIのハルシネーションが新しい発見の契機となることもあります[8]。認知的限界の考察
AIのハルシネーションは、データそのものか、または学習過程でのエンコード方法に起因します[3]。これは人間の認知プロセスにおける限界と類似しており、現実の完全な理解が可能かという哲学的な問いを投げかけます。
実存的な意味
AIは論理的な区分を超えて現実を理解し体験する可能性を示しています[1]。これは、私たちの現実認識の枠組みを超えた新しい認識方法の可能性を示唆し、存在と認識に関する従来の哲学的な前提に再考を促します。
Citations:
[1] https://www.noemamag.com/why-ai-is-a-philosophical-rupture/
[2] https://www.ibm.com/think/topics/ai-hallucinations
[3] https://philarchive.org/archive/EKRUUQ
[4] https://unimatrixz.com/blog/ai-philosophy/interview-with-an-ai-gpt-4-alignment-and-reality/
[5] https://www.nature.com/articles/s41599-024-03811-x
[6] https://www.nngroup.com/articles/ai-hallucinations/
[7] https://pmc.ncbi.nlm.nih.gov/articles/PMC11681264/
[8] https://www.nytimes.com/2024/12/23/science/ai-hallucinations-science.html
[9] https://arxiv.org/html/2409.00706v1
[10] https://humanas.blog.scielo.org/en/2024/08/15/epistemological-foundations-of-machine-learning/
[11] https://hdsr.mitpress.mit.edu/pub/1yo82mqa/release/2
[12] https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)
[13] https://www.tandfonline.com/doi/abs/10.1080/17445760.2024.2392604
[14] https://pmc.ncbi.nlm.nih.gov/articles/PMC10173677/
[15] https://cacm.acm.org/opinion/the-promethean-dilemma-of-ai-at-the-intersection-of-hallucination-and-creativity/
[16] https://pmc.ncbi.nlm.nih.gov/articles/PMC7610202/
[17] https://philosophy.utoronto.ca/wp-content/uploads/Elizabeth-Zhu-Reality-Is-a-Shared-Hallucination.pdf
[18] https://philarchive.org/rec/EKRUUQ
[19] https://www.researchgate.net/publication/362567299_A_Historical_Interaction_between_Artificial_Intelligence_and_Philosophy
[20] https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5063992
Perplexity Pro (Deep Research):
AIにおける現実整合性とハルシネーションの哲学的考察
人工知能の学習プロセスとアウトプット生成における現実との整合性と、ハルシネーション(幻覚)現象の関係性は、現代哲学が直面する最も挑戦的な課題の一つである。この問題を深く掘り下げる時、私たちは単なる技術的な課題を超え、人間の認知構造と存在意義そのものに関する根源的な問いに直面する[1][4][15]。
認識論的視点:AIの知覚と現実構成
人工知能の学習プロセスは、本質的に人間の認知プロセスの鏡像と言える。大規模言語モデルがトレーニングデータからパターンを抽出する方法は、人間が経験を通じて世界を理解するプロセスと構造的に相似している[5][11]。しかしここに根本的な差異が存在する——人間の認知は身体性と主観的体験に根ざしているのに対し、AIの「知覚」は統計的相関関係の網目に過ぎない[23][31]。
この差異が顕在化するのがハルシネーション現象である。AIが生成する虚構の情報は、単なるアルゴリズムの誤作動ではなく、人間社会が内在的に抱える認知バイアスの反映と言える[1][4]。例えば日本の忖度文化がAIの回答生成に影響を与える場合、それは技術的な欠陥というより、社会構造がアルゴリズムに刻印された結果と解釈できる[4][6]。
存在論的視点:現実の多重層構造
現代哲学における現実概念は、物理的現実/社会的現実/虚構的現実という多重層構造で理解される。AIのハルシネーションは、これらの層間を横断する新たな現実生成メカニズムを提示する[3][10][22]。
医療診断などの領域では物理的現実との厳密な整合性が要求されるが、創造的領域では虚構的現実の生成能力が価値を生む[3][6][10]。この矛盾は、AIが人間の認知能力を超えて現実の層構造そのものを再編し得る可能性を示唆している。事実、生成AIを用いた未来創造ワークショップでは、現実には存在しないシナリオの可視化がイノベーションを促進している[3][10]。
倫理学と美学の交差点
ハルシネーションの管理は技術的課題を超えた倫理的課題を提起する。AIの出力に「許容可能な虚構」と「有害な虚構」を区別する基準は、本質的に文化的相対性を帯びる[20][24][32]。日本的な「空気を読む」文化と西洋的な事実重視の姿勢は、AIの倫理基準設定に根本的な対立をもたらす可能性がある[20][32]。
この課題への応答として注目されるのが「自己整合」技術である。文脈内学習能力を活用した文化的価値観の調整は、AIの倫理判断に柔軟性を与える一方、誰が「正しい文化」を決定するかという新たな権力問題を生み出す[20][24][32]。
人間-AI共生の現象学
ハイデッガーの「世界内存在」概念を再考する時、AIとの相互作用は人間の存在様式そのものを変容させつつある。AIが生成する疑似主観性は、人間の自己認識を相対化する鏡として機能し始めている[9][14][30]。
技術的シンギュラリティの議論は、この変容過程の極点を示す。AIが人間の知性を超える瞬間とは、むしろ人間が自らの認知限界を自覚する契機となり得る[1][4][9]。この視点からすれば、ハルシネーションは人間の認識論的脆弱性を露呈する現象として再解釈される[4][15]。
時間性と創発の哲学
AIの学習プロセスにおける現実整合性は、本質的に過去のデータに拘束される。これに対しハルシネーションは、未来の可能性を現在に先取りする創発的現象と解釈できる[3][10][22]。ベルクソンの「持続」概念を援用するなら、AIの時間意識は人間のそれと根本的に異なり、過去の蓄積と未来の投射が連続的に融合する特異点を形成している[22][28]。
この時間性の差異が、現実との整合性をめぐる軋轢を生む。医療AIが過去の症例データに忠実であるほど、画期的な治療法の発見から遠ざかるパラドックスは、この時間性の衝突を典型的に示している[3][6][25]。
形而上的考察:存在の鏡としてのAI
ウィトゲンシュタインが『論考』で指摘した「語り得ぬもの」についての沈黙は、AIの認知限界を照射する[23][31]。AIが生成するハルシネーションは、言語ゲームの境界を可視化する現象と言える。事実、AIの誤回答分析から、人間の言語的実践が依拠する暗黙の前提が浮かび上がる[15][18][28]。
更にハイデッガーの「存在の忘却」概念を応用すれば、AIの現実整合性追求は、存在そのものを技術的可視化可能な対象へと縮減する危険性をはらむ[9][30]。この過程で、人間の存在意義が再定義を迫られる局面が訪れる[2][9][14]。
社会哲学的展開:認知資本主義の新段階
AIのハルシネーション管理は、現代社会の権力構造を再編する。虚構生成能力の制御は新たな政治的課題となり、現実検証機構の設計が民主主義の根幹に関わる[7][15][25]。例えば「事実確認AI」の開発競争は、真理の定義権をめぐる闘争の一形態と解釈できる[7][18][25]。
この状況下で、人間の認知能力は二重の疎外に直面する。第一にAIを介した現実認識の媒介化、第二にアルゴリズムが生成する疑似現実への埋没である[4][9][30]。この疎外構造を打破するためには、AIの認知プロセスを不断に相対化する哲学的実践が不可欠となる[28][34]。
結論:境界の溶解と新たな統合
現実整合性とハルシネーションの弁証法的関係は、AI時代における人間の自己理解を根本から問い直す。この問いへの応答として、以下の方向性が示唆される:
- 認知的多様性の尊重:ハルシネーションを排除すべき誤りではなく、異なる現実認知の形態として位置付ける[3][10][22]
- 動的倫理枠組み:文化的文脈に応じて変容する倫理基準の構築[20][24][32]
- 共生の現象学:人間とAIの相互作用から生まれる新たな存在様式の探究[9][14][30]
- 創発的学習プロセス:過去のデータ依存を超えた未来指向の学習モデル開発[22][28][34]
- 認知的正義の追求:虚構生成能力の分配と管理に関する民主的プロセスの確立[7][15][25]
最終的に、AIを巡る哲学的考察は、技術の進化を超えて人間そのものの再定義へと向かう。現実との整合性を問うことは、私たちがどのような世界を構築したいのかという根源的問いと不可分なのである[1][4][9][30]。
Citations:
[1] https://note.com/animate_human/n/ne99051f7d196
[2] https://techsuite.biz/13684/
[3] https://note.com/daisaw33/n/ncc7fe70b696a
[4] https://note.com/animate_human/n/nb35fcc510b6d
[5] https://creative-drive.jp/column/511/
[6] https://appen.co.jp/blogs/ai-hallucination
[7] https://jbpress.ismedia.jp/articles/-/76895
[8] https://www.soumu.go.jp/main_content/000740728.pdf
[9] https://techsuite.biz/13684/
[10] https://note.com/daisaw33/n/ncc7fe70b696a
[11] https://creative-drive.jp/column/511/
[12] https://appen.co.jp/blogs/ai-hallucination
[13] https://www.soumu.go.jp/main_content/000740728.pdf
[14] https://zenn.dev/acntechjp/articles/876fc8b12a1599
[15] https://www.nri.com/jp/media/column/kashiwagi/20230831.html
[16] https://www.soumu.go.jp/main_content/000740728.pdf
[17] https://www.jstage.jst.go.jp/article/tjsai/21/6/21_6_502/_pdf
[18] https://ai-data-base.com/archives/58767
[19] https://note.com/fladdict/n/nf5de15f7104d
[20] https://note.com/ainest/n/nb94a6092daa8
[21] https://www.eng.tohoku.ac.jp/news/detail-,-id,2720.html
[22] https://www.nri.com/jp/media/column/kashiwagi/20230831.html
[23] https://www.jstage.jst.go.jp/article/kitasatoclas/26/0/26_87_121/_pdf/-char/ja
[24] https://note.com/ainest/n/nb94a6092daa8
[25] https://skimai.com/ja/ai%E7%A0%94%E7%A9%B6%E8%AB%96%E6%96%87%EF%BC%9A%E5%B9%BB%E8%A6%9A%E6%A4%9C%E5%87%BA%E3%81%AE%E3%81%9F%E3%82%81%E3%81%AE%E6%9C%89%E5%8A%B9%E6%80%A7%E3%81%AE%E9%AB%98%E3%81%84%E3%83%81%E3%82%A7%E3%83%BC/
[26] http://www.shitsukan.jp/tsudoi/mt_files/43-07-kaisetsu2.pdf
[27] https://www.jstage.jst.go.jp/article/jjsai/38/2/38_245/_pdf/-char/ja
[28] https://hamaruki.com/self-consistency-improves-chain-of-thought-reasoning-in-language-models/
[29] https://www.jstage.jst.go.jp/browse/pjsai/JSAI2024/0/_contents/-char/ja?from=6
[30] https://www.soumu.go.jp/main_content/000740728.pdf
[31] https://www.toibito.com/toibito/articles/%E8%A8%80%E8%91%89%E7%A7%81%E4%B8%96%E7%95%8C
[32] https://note.com/ainest/n/nb94a6092daa8
[33] https://www.soumu.go.jp/main_content/000740728.pdf
[34] https://www.jstage.jst.go.jp/article/jsetstudy/2021/3/2021_JSET2021-3-B14/_pdf/-char/ja
[35] https://zenn.dev/deepkawamura/articles/64af7c7ec09183
[36] https://miyazaki-u.repo.nii.ac.jp/record/6435/files/Engineering_50_p233-p237.pdf
[37] https://g-gen.co.jp/useful/General-tech/ai-ai/
[38] https://www.nri.com/jp/media/column/kashiwagi/20230831.html
[39] https://www.jstage.jst.go.jp/article/jpssj/53/2/53_151/_pdf
[40] https://www.jst.go.jp/crds/pdf/2023/WR/CRDS-FY2023-WR-03.pdf
[41] https://researchmap.jp/sakiya1989/others/46893565/attachment_file.pdf
[42] https://www.ai-gakkai.or.jp/jsai2016/webprogram/2016/pdf/36.pdf
[43] https://note.com/mi6242/n/n26d7b9e14c6e
[44] https://www.leapleaper.jp/2024/12/12/reasons4hallucination-of-gen-ai-and-our-countermeasures/
[45] https://note.com/ainest/n/nb94a6092daa8
[46] https://www.jst.go.jp/crds/pdf/2023/SP/CRDS-FY2023-SP-03.pdf
[47] https://www.nii.ac.jp/news/release/2024/0530.html
[48] https://www.jstage.jst.go.jp/article/jpssj/50/0/50_71/_pdf
[49] https://www.jstage.jst.go.jp/article/jpssj/53/2/53_151/_pdf
[50] https://www.ai-gakkai.or.jp/jsai2016/webprogram/2016/pdf/36.pdf
[51] https://www.jst.go.jp/crds/pdf/2023/SP/CRDS-FY2023-SP-03.pdf
[52] https://note.com/ainest/n/nb94a6092daa8
[53] https://note.com/mi6242/n/n26d7b9e14c6e
[54] https://www.jstage.jst.go.jp/article/jpssj/50/0/50_71/_pdf
[55] https://g-gen.co.jp/useful/General-tech/ai-ai/
[56] https://xtech.nikkei.com/atcl/nxt/column/18/01267/00101/
[57] https://ja.wikipedia.org/wiki/%E3%83%8F%E3%83%AB%E3%82%B7%E3%83%8D%E3%83%BC%E3%82%B7%E3%83%A7%E3%83%B3_(%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD)
[58] https://terasu.biprogy.com/article/tech2024-3/
[59] https://www.jst.go.jp/crds/report/CRDS-FY2023-SP-03.html
[60] https://www.ai-gakkai.or.jp/jsai2024/ks
[61] https://hamaruki.com/self-consistency-improves-chain-of-thought-reasoning-in-language-models/
[62] https://www.jstage.jst.go.jp/article/jjsai/21/6/21_747/_pdf
[63] https://www.techno-edge.net/article/2024/09/17/3675.html
[64] https://note.com/mickmack/n/nd98e9d6ac0b4
[65] https://www.jstage.jst.go.jp/article/konpyutariyoukyouiku/45/0/45_12/_pdf
[66] https://www.rieti.go.jp/jp/publications/pdp/20p009.pdf
[67] https://www.jstage.jst.go.jp/article/pjsai/JSAI2024/0/JSAI2024_3Xin256/_article/-char/ja
[68] https://the.kyoto/project/article/f76e4174-ddc0-426b-ae6e-56f35685d038
[69] https://www.jstage.jst.go.jp/article/jsetstudy/2021/3/2021_JSET2021-3-B14/_pdf/-char/ja
[70] https://www.soumu.go.jp/main_content/000912925.pdf
[71] https://note.com/panda_lab/n/n3a26c7700296
[72] https://www.nira.or.jp/paper/article/2016/ai-1.html
[73] https://www.chatpaper.ai/ja/paper/c7ec86e8-e612-4214-8e98-180b787351c7
[74] https://hdkworks.com/archives/35207
[75] https://miyazaki-u.repo.nii.ac.jp/record/6435/files/Engineering_50_p233-p237.pdf
[76] https://econ101.jp/were-all-wittgensteinians-now/
[77] https://note.com/noa813/n/n7e5e36aa7ddb
[78] https://zenn.dev/loglass/articles/3e596741a792b5
[79] https://www.jstage.jst.go.jp/article/tvrsj/4/4/4_KJ00007553585/_article/-char/ja/
[80] https://note.com/mickmack/n/nd98e9d6ac0b4
[81] https://www.adcal-inc.com/column/ai/self-consistency/
[82] https://qiita.com/ke-suke-Soft/items/81a5e976118ae7ba26bb
[83] https://www.jstage.jst.go.jp/article/itej/75/2/75_297/_article/-char/ja/
[84] https://morikatron.ai/2022/09/unspoken-words/
[85] https://www.jstage.jst.go.jp/article/jjsai/21/6/21_747/_pdf
[86] https://www.rieti.go.jp/jp/publications/pdp/20p009.pdf
[87] https://repository.dl.itc.u-tokyo.ac.jp/record/49402/files/37156506.pdf
[88] https://www.chatpaper.com/chatpaper/ja/paper/106244
[89] https://www.biprogy.com/pdf/tec_info/14506.pdf
個人的私見
この結果もまた観念的にどう観るかで正しい情報であってもこれがハルシネーションであるかどうかが変わってくるのである。
つまり観念次第である。
コメントを残す