
オラクルはJavaの最新バージョン「Java 26」正式版のリリースを発表しました。日本時間で今日(2026年3月18日)未明にカリフォルニア州レッドウッドシティで開幕したJavaOne 2026でも、Java 26のリリースが紹介されました。
「Java 26」正式リリース。HotSpotの起動高速化、HTTP/3クライアント対応など新機能 - Publickey
Javaは6カ月ごとに「フィーチャーリリース」と呼ばれるバージョンアップが行われ、その中の1つのバージョンが2年毎に長期サポート(LTS:Long Term Support)版に指定されます。
「Java 26」正式リリース。HotSpotの起動高速化、HTTP/3クライアント対応など新機能 - Publickey
現時点で最新のLTS版は昨年(2025年)9月にリリースされたJava 25です。
「Java 26」正式リリース。HotSpotの起動高速化、HTTP/3クライアント対応など新機能 - Publickey
⇧ なるほど、今回、リリースされた「Java 26」は「LTS:Long Term Support」ではないと。
ヤン・ルカン(Yann LeCun)氏の構想する世界モデル(World Models)とは?
Wikipediaによりますと、
世界モデル(せかいモデル)とは、AIによる実世界への常識や経験則といったような構造化された幅広い知識や理解の総体のことである。また、広義にはそれを獲得し利用するためのシステムも含む概念である。
身の回りの世界のイメージを模型のように頭の中に再現し、想像の中で未来予測をシミュレートして生活することで本能的な行動、反射的な反応を可能にする人間のメンタルモデルというシステムに類似している。
世界モデルという名称は、Google Brain 所属(当時。現在は Sakana AI のCEO)の David Ha 氏と LSTM の考案者である Jürgen Schmidhuber 氏によって2018年に発表された「World Models」という論文に由来。
⇧ 上記にあるように、「世界モデル(World Models)」という用語の由来は論文らしいのだが、
2026年1月にヤン・ルカン氏の新会社AMI Labsが注目を集める一方で、「ワールドモデル」という同じ名前が、ルカン氏のJEPAとSakana AI創業者David Ha氏の2018年論文で全く異なる意味で使われており、混同されやすい状況があります。
同じ名前で中身は別物——「ルカンの世界モデル」と「Sakana AIのWorld Models」、何が違うのか #SakanaAI - Qiita
⇧ 上記サイト様によりますと、ややこしいことになっている模様。
「ChatGPT」氏に両者の違いを整理してもらったところ、以下のような回答が返ってきた。
📌 定義の違い
| No | 用語 | 定義の概要 | 提唱者 | 時期 |
|---|---|---|---|---|
| 1 | 世界モデル(World Models) | エージェントが環境を圧縮して再現し、内部シミュレーションできるモデル |
|
2018年 |
| 2 | 世界モデル(World Models) | 外界の状態とその変化を予測するための内部表現(predictive model) |
|
2010年代後半~ |
📌 スコープ(対象世界)の違い
| 観点 | David Ha 氏 & Jürgen Schmidhuber 氏 | Yann LeCun 氏 |
|---|---|---|
| 世界の範囲 | ゲーム・単純環境 | 現実世界全体 |
| 複雑さ | 低〜中 | 極めて高い |
| 汎用性 | 低(タスク特化) | 高(汎用知能志向) |
📌 目的の違い(ここが本質)
| 目的 | David Ha 氏 & Jürgen Schmidhuber 氏 | Yann LeCun 氏 |
|---|---|---|
| 基本目的 | 強化学習の効率化 | 汎用知能の実現 |
| 世界モデルの役割 | 行動学習のための補助ツール | 知能の中核そのもの |
| 主な用途 | シミュレーションでの訓練 | 予測・理解・推論 |
| 最適化対象 | 報酬最大化(reward) | 予測精度・世界理解 |
| 学習のゴール | うまく行動できること | 世界を正しく予測できること |
| 想定エージェント | タスク特化エージェント | 人間レベルの知能 |
| 世界モデルの位置づけ | 手段(means) | 本体(end / core) |
📌 一行でまとめると
- David Ha 氏 & Jürgen Schmidhuber 氏
- → 「うまく行動するために世界を使う」
- Yann LeCun
- → 「世界を理解すること自体が知能」
ちなみに、今回は、「ヤン・ルカン(Yann LeCun)」氏の構想する「世界モデル(World Models)」の方についてです。
ヤン・ルカン(Yann LeCun)氏の構想する世界モデル(World Models)が形になるまでの紆余曲折
ネットの情報を漁っていたところ、
AI研究の分野で、AIが外界を内部的にシミュレーションして未来予測や因果関係の理解を可能にする「世界モデル(world model)」という古い考え方が再び注目を集めています。なぜ世界モデルが重要なのか、作家で映画クリエイターのジョン・パヴラス氏が解説しています。
世界モデルとは、AIが「知覚、行動、学習」という反射的なトレーニングをするだけではなく、外界や環境を内部的にシミュレーションして世界の動きや因果関係を理解、予測するための内部モデルのことを指します。
世界モデルの起源は「人工知能」という言葉が生まれるよりも前の1943年にあり、当時29歳のスコットランド人心理学者ケネス・クレイク氏が発表した論文の中で、「生物が世界の小規模な内部モデルを持っていれば、頭の中で試行錯誤を行い、行動の結果を事前に予測できる」と述べたことに由来します。
ただし、世界モデルはあくまで汎用(はんよう)人工知能(AGI)を実現するための目標であり、現在ではまだ「ヒューリスティックの塊」でしかないとパヴラス氏は指摘しています。
ヒューリスティックとは、計算結果の正しさが保証されるアルゴリズムと対比して、解答に至るまでの時間が短い代わりに答えの精度が保証されない近似アルゴリズムを計算するものです。
つまり、LLMは膨大なトレーニングデータにより「断片的な経験則の網羅」を組み合わせて特定のシナリオへ高精度で対応できますが、あくまで世界モデルを実現しているわけではないため、一貫性や確実性に欠けているというわけ。
⇧ 上記にありますように、「世界モデル(World Models)」の「概念」は、かなり昔に提唱されていたものらしい。
他の分野で考えられたものらしいので、「ニューラルネットワーク」の時と同じように、他の分野から「インスパイア」されることは多いのかもしれない。
まぁ、「ハニカム構造(Honeycomb structure)」とか、「自然界」の「仕組み」を「構造力学」に応用したりされることもあるので、どんな「情報」が「イノベーション」に繋がるかは見極めが難しいですな...
話が脱線しましたが、
大手IT企業は生成AIへの投資を盛んに行っており、記事作成時点ではまさにAIブームといえる状況になっています。ところが、人間の認知や生成AIへの理解を深めることを目的とするベンチャー企業・Cognitive Resonanceの創業者であるベンジャミン・ライリー氏は、「AIブームは言語能力と知能についての根本的な誤解に基づいている」と主張しています。
ライリー氏は、「この理論には重大な科学的欠陥があります。大規模言語モデルは言語のコミュニケーション機能を模倣する単なるツールであり、どれだけ多くのデータセンターを構築したとしても、思考と推論という独立した明確な認知プロセスにはなりません」「この違いを理解することが、科学的事実と、AIに熱狂するCEOたちの空想的なSFを区別する鍵となります」と述べています。
実際、AI研究コミュニティでは「大規模言語モデルだけでは人間の知能モデルとしては不十分だ」という認識が高まりつつあります。
たとえばAI研究でチューリング賞を受賞したヤン・ルカン氏はMetaを辞任し、「物理世界を理解し、持続的な記憶を持ち、推論でき、複雑な行動シーケンスを計画できるシステム」である世界モデル構築のためのAIスタートアップを設立しました。
また、ルカン氏と共にチューリング賞を受賞したヨシュア・ベンジオ氏らは、AGIの暫定的な定義を「十分な教育を受けた成人の認知的多様性」を持つものと定義しました。
ベンジオ氏らは、知能は以下のように「Knowledge(知識)」「Math(数学)」「Working Memory(ワーキングメモリー)」「Visual(視覚)」「Auditory(聴覚)」など、さまざまな項目から成り立っていると主張しています。これに対しライリー氏は、大規模言語モデルにとらわれてきた従来の枠組みを脱するという点では評価できるものの、これらの合計がAGIであると見なすのは難しいと指摘しています。
⇧ 上記にありますように、「大規模言語モデル(LLM:Large Language Model)」を改良していく「アプローチ」では、現状の「問題」を根本的に解決することが難しいだろうと、異なる道を模索する「研究者」が出てきており、
AI研究者として知られるヤン・ルカン氏が率いるAIスタートアップの仏Advanced Machine Intelligence(AMI)は3月10日、10億3000万ドル(約1617億1000万円、1ドル157円換算)を調達したと発表した。現実世界を理解するAI「世界モデル」の開発を目指す。
ヤン・ルカン率いるAI新興、1600億円超を調達 NVIDIAやトヨタなどが支援 「世界モデル」開発へ - ITmedia AI+
⇧ 上記にありますように、「ヤン・ルカン」氏が率いる「スタートアップ」企業が「世界モデル(World Models)」の開発に本格的に取り組むらしい。
改めて、ヤン・ルカン(Yann LeCun)氏の構想する世界モデル(World Models)とは
ネットの情報を漁っていたところ、
我々は、世界モデルが知能のベースにあって、その上に様々な知的な機能が実現できると考えています。
これは松尾先生が使っていた言葉ですが、世界モデルは「子供の知能」にあたります。
つまり、親から教えられなくても、外界と相互作用して世界がどういうものかを「直感的」に理解するのです。
これができて、ようやく我々のような「大人の知能」、すなわち数学の問題を解いたり片付けをしたりといった高度な知的行動を実現する人工知能を作り始めることができます。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
これまでの知能研究を振り返ると、古典的な人工知能(古き良き人工知能(Good Old Fashioned AI;GOFAI)とも言われます)では、
最初から探索や推論といった高度な「大人の知能(賢い知能)」を実現しようとしていました。
それがなぜ失敗したかというと、これらの知能が「世界」について「無知」だったからです。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
先述の通り、世界モデルは「外界(世界)から得られる観測情報に基づき外界の構造を学習によって獲得するモデル」です。
なお、ここでの観測とは、画像をはじめ、音声、文書など外界から得られる様々な種類の情報のことです。これらを学習することで大規模な外界のモデルを作るというのが世界モデルの重要な点です。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
⇧ 上記サイト様の説明がイメージし易くて善き。
ザックリと、ヤン・ルカン(Yann LeCun)氏の構想する世界モデル(World Models)が導入することを「TO BE」と捉えた場合、
- AS IS
- これまで、「インプット」としては「テキスト」を解釈するという「アプローチ」で進んできた。
- TO BE
- 様々な「情報」を「インプット」として「世界」を解釈させようという「アプローチ」に取り組む。
になると思われますと。
当然のことながら、具体的な実現方法については、ハッキリとはしていないのだが、仮に「世界モデル(World Models)」が構築できた場合、
世界モデルを持つことによって、大きく分けて「予測」と「推論」の2つが実現できます。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
1つ目の予測とは、現在の観測から将来や未知の観測を予測することです。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
2つ目の推論とは、外界からの観測から、外界の「表現(※ 潜在変数や状態表現といいます)」を獲得することです。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
こうした予測や推論が可能な世界モデルを得ることは、人工知能にとって様々な利点があります。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
まず、自由に世界を予測可能なモデルが手に入ることで、動かしすぎると故障してしまう恐れのあるロボットなどの制御を学習する際に、世界モデルによるシミュレーション上で何回でも学習を行うことができます。これは、人間のイメージトレーニングに例えられます。また、良い表現を推論し、その上で計画を立てたり制御方法を学習することで、それらの性能をより高めることもできます。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
さらに、深層学習によって世界モデルを学習するということは「微分可能な世界のモデル」を獲得することになります。これによって制御の学習を非常に効率的にすることができます。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
⇧ 確かに、実際に動かさなくても済むのであれば、「ハードウェア」に対する負荷は減って故障しにくい状況を作れるかもしれないですと。
ただ、「外界」の「観測」によって、「世界」という「概念」をどのように「AI(Artificial Intelligence)」に「学習」させるのかは気になりますな...
で、
世界モデルという用語は、今では当たり前になっています。深層学習の領域で近年急速に研究が進められており、人工知能研究の大家の1人であるYann LeCun先生が「次のAIに向けた重要な研究である」と指摘している通り、今後の人工知能の鍵となるトピックとして注目されています。
「世界モデル」とは何か? 知能の実現に向けて、松尾研が研究を推進する理由。 - 東京大学松尾・岩澤研究室(松尾研)- Matsuo Lab
⇧ 上記でも「ヤン・ルカン(Yann LeCun)」氏が登場して来ますと。
ヤン・アンドレ・ルカン(Yann André LeCun、1960年7月8日 - )は、フランス出身の計算機科学者で、主に機械学習、コンピュータビジョン、移動ロボット、計算神経科学の研究を行っている。ニューヨーク大学クーラント数理科学研究所のシルバー教授、Meta(旧Facebook社)のヴァイスプレジデント兼チーフAIサイエンティストである。
畳み込みニューラルネットワーク(CNN)の主要な創始者の一人であり、それを用いた光学文字認識やコンピュータビジョンの研究で知られる。また、レオン・ボトゥー、パトリック・ハフナーらとともに画像圧縮技術DjVuを創始し、ボトゥーとともにプログラミング言語Lushを開発した。
ディープラーニングに関する研究が評価され、ヨシュア・ベンジオ、ジェフリー・ヒントンとともに2018年のチューリング賞を受賞した。この3人は、「AIのゴッドファーザー」「ディープラーニングのゴッドファーザー」と呼ばれている。
⇧ 今の「AI(Artificial Intelligence)」の発展の礎を築いたと言っても過言では無い立役者でありますと。
とりあえず、ヤン・ルカン(Yann LeCun)氏の構想する世界モデル(World Models)で目指している「仕組み」の概要については、
従来の生成AI(Soraなど)は、映像のすべてのピクセルを描き出そうとします。しかし、現実世界はあまりにも詳細で複雑です。風に揺れる木の葉のすべての動きや、背景の壁紙の細かい模様、光の反射などをすべて予測して描こうとすると、計算コストが膨大になりすぎます。また、重要な情報(車が近づいていること)と不要な情報(車体の細かな傷や影の揺らぎ)を区別せず、すべてを描こうとしてしまいます。
JEPAは、入力された映像を一度「抽象的な表現(Embedding)」に変換します。そして、予測を行うのはこの抽象空間(Representation Space)の中だけです。
サッカーの試合を見ている場面を想像してください。あなたが試合の流れを予測するとき、選手の顔のシワや、芝生の一本一本の揺れ、観客席の個々の服の色まで予測しているでしょうか。していませんね。あなたが追っているのは「選手Aがボールを持った」「右サイドにパスを出した」といった意味や状態の動きです。
JEPAはこれと同じことを行います。
⇧ 上記サイト様がイメージし易いかと。
「オブジェクト指向」的に捉えた場合、「オブジェクト」同士の関連などを「認知」できるように「AI(Artificial Intelligence)」に「学習」させる必要がありそうではある。
「ChatGPT」氏に、『AとBという2つの関係性に対する人間の認知についてピックアップして』と質問してみたところ、以下のような回答が返ってきた。
💡 人間の認知でよく使われる関係のパターンの分類
| No | 関係タイプ | A → B の意味 | 例(A → B の意味) |
|---|---|---|---|
| 1 | 原因 | A が B を引き起こす | 雨 → 洪水 |
| 2 | 結果 | A は B の結果 | 骨折 → 転倒 |
| 3 | 促進 | A が B を強める | 勉強 → 成績向上 |
| 4 | 抑制 | A が B を弱める | ブレーキ → 減速 |
| 5 | 条件(必要) | A がないと B が起こらない | 酸素 → 燃焼 |
| 6 | 条件(十分) | A があれば B が起こる | スイッチON → ライト点灯 |
| 7 | 先行 | A の後に B が起こる | 朝 → 昼 |
| 8 | 後続 | A は B の後に起こる | 夜 → 朝 |
| 9 | 同時 | A と B が同時 | 雷 → 稲妻 |
| 10 | 継続 | A の間 B が続く | 雨 → 渋滞 |
| 11 | 空間位置 | A が B の位置にある | 本 → 机の上 |
| 12 | 近接 | A が B に近い | 家 → 学校 |
| 13 | 包含 | A が B を含む | 森 → 木 |
| 14 | 部分 | A は B の一部 | タイヤ → 車 |
| 15 | 構成 | A が B を構成する | レンガ → 壁 |
| 16 | 所属 | A は B に属する | 学生 → 学校 |
| 17 | 上位概念 | A は B のカテゴリ | 動物 → 犬 |
| 18 | 下位概念 | A は B の具体例 | 犬 → 動物 |
| 19 | インスタンス | A は B の実例 | 柴犬 → 犬 |
| 20 | 属性 | A は B の特徴 | 赤 → リンゴ |
| 21 | 類似 | A は B に似ている | 脳 → コンピュータ |
| 22 | 対比 | A は B と対照 | 光 → 闇 |
| 23 | 類推 | A と B が構造的に似る | 原子 → 太陽系 |
| 24 | 手段 | A は B を達成する方法 | 鍵 → ドアを開ける |
| 25 | 目的 | A は B の目的 | 勉強 → 合格 |
| 26 | 使用 | A が B を使う | 人 → ハンマー |
| 27 | 表象 | A が B を表す | 地図 → 地形 |
| 28 | 記号 | A が B のシンボル | ❤️ → 愛 |
| 29 | 感情 | A が B に感情を持つ | 人 → 犬が好き |
| 30 | 社会役割 | A が B に対して役割を持つ | 教師 → 学生 |
まぁ、「パターン」の「分類」が全く足りていないとは思うのだが...
この「認知のパターン」の対応付けを上手いこと「AI(Artificial Intelligence)」に「学習」させることができるのだろうかしら...
そして、「観測」というと、どうしても「帰納法」の問題として人口に膾炙しているであろう「ヘンペルのカラス」の話が思い出されてしまうのよね...
ヘンペルのカラス (英: Hempel's ravens) とは、ドイツのカール・ヘンペルが1940年代に提出した、帰納法が抱える根本的な問題(「帰納法の問題」)を喚起する問題である。「カラスのパラドックス」とも呼ばれるが、パラドックスとして扱うべきかどうかには異論もある。
つまり、「観測できないもの」については、
- 存在する
- 存在しない
の判断ができないことから、「ルールベース」の「仕組み」も導入せざるを得ない気がしますな...
「ChatGPT」氏に『「ヤン・ルカン(Yann LeCun)氏の構想する世界モデル(World Models)」において「演繹的な帰結」を実現できるようになるのか?』と質問してみたところ、以下のような回答が返ってきた。
✅ 1. 世界モデルで可能なこと
- 観測データに基づく帰納的学習
- パターン認識
- 因果の統計的関係
- 時系列予測
- 予測可能な現象に対してはかなり柔軟に推論できる
✅ 2. 難しいこと:演繹的な帰結
演繹的推論とは?
- 「Aが真 → Bも必ず真」
- 完全な論理体系の中で矛盾なく導く推論
世界モデルの制約
- 世界モデルはニューラル表現で学習するため:
- 不確実性がある
- データの偏りがある
- 完全に論理的・演繹的に扱えない
👉 つまり
- 統計的に高確率で正しい推論はできる
- しかし 絶対的な演繹的結論は難しい
✅ 3. 直感的なたとえ
- 世界モデル
- → 「経験と観察から“だいたい正しい未来”をシミュレーションする頭脳」
- 演繹的推論
- → 「公理だけで100%正しい結論を導く数学者」
✅ 4. なぜ人間の認知と差が出るか
- 人間も完全演繹は難しい
- でも神話や倫理のような非予測的領域も扱える
- ルカン型AIは予測可能な構造に基づく帰納推論に強いが、演繹的帰結や不可知領域は苦手
✅ 5. まとめ
- 結論:ルカンの世界モデルは演繹的な帰結が難しい
- そのかわり、現実世界で観測可能・経験可能な範囲の因果・予測・推論は強力に扱える
- 神や奇跡のような不可知領域はモデル化不可能
📌 世界モデル型AI と 演繹型AI の比較
| 観点 | 世界モデル型AI(ルカン流) | 演繹型AI(記号論理系) |
|---|---|---|
| 学習方法 | 経験・観測データから予測可能なパターンを学習(帰納的学習) | 公理・ルールに基づく論理推論(演繹的学習) |
| 推論スタイル | 統計的・シミュレーション的 | 厳密・演繹的 |
| 強み |
|
|
| 弱み |
|
|
| 対象 | 現実世界・観測可能な現象 | 論理・数学的構造、公理体系内の問題 |
| 例 | 物理予測、行動予測、シーン理解、LLMの世界モデル的推論 | 定理証明、論理パズル、数学計算、形式手法 |
📌 解説ポイント
- 世界モデル型AI
- 「予測+シミュレーション」が基盤
- 推論は帰納的・経験的
- 現実世界向きだが絶対的正確性は保証できない
- 演繹型AI
- 「公理からの推論」が基盤
- 推論は厳密・絶対的
- 現実世界の不確実性やノイズには弱い
💡 直感的な理解
- 世界モデル型AI → 「科学者が頭の中で世界をシミュレーションする感じ」
- 演繹型AI → 「数学者が公理から正しい結論を導く感じ」
何となく、
弁証法(べんしょうほう、希: διαλεκτική、英: dialectic)矛盾を解消し高い次元へと発展する働き。哲学用語だが評論では、「矛盾の解消」「対立項の折衷」などの意味で用いられることも多い。
弁証法(的)論理学
ヘーゲルの弁証法を構成するものは、ある命題(テーゼ=正)と、それと矛盾する、もしくはそれを否定する反対の命題(アンチテーゼ=反)、そして、それらを本質的に統合した命題(ジンテーゼ=合)の3つである。
全てのものは己のうちに矛盾を含んでおり、それによって必然的に己と対立するものを生み出す。生み出したものと生み出されたものは互いに対立しあうが(ここに優劣関係はない)、同時にまさにその対立によって互いに結びついている(相互媒介)。
最後には二つがアウフヘーベン(aufheben, 止揚,揚棄)される。このアウフヘーベンは「否定の否定」であり、一見すると単なる二重否定すなわち肯定=正のようである。しかしアウフヘーベンにおいては、正のみならず、正に対立していた反もまた統合されて保存されているのである。
ドイツ語のアウフヘーベンは「捨てる」(否定する)と「持ち上げる」(高める)という、互いに相反する二つの意味をもちあわせている。なおカトリックではaufhebenは上へあげること(例:聖体の奉挙Elevation)だけの意。
⇧ 上記の「ヘーゲル」の「弁証法」の、
- 命題(テーゼ=正)
- 反対の命題(アンチテーゼ=反)
- 統合した命題(ジンテーゼ=合)
の「アプローチ」によって、
⇧ 上記の「アウフヘーベン」に至るイメージが思い浮かんでしまった。
というわけで、「ChatGPT」氏に『「ヤン・ルカン(Yann LeCun)氏の構想する世界モデル(World Models)」と「ヘーゲルの弁証法」の「アウフヘーベン」は何か関係あるのか』と質問してみたところ、以下のような回答が返ってきた。
📌 直感的な対応
| ヘーゲル的プロセス | 世界モデル的プロセス |
|---|---|
| 否定(古いものを捨てる) | 生データのノイズや不要情報を圧縮・無視 |
| 保存(重要なものを残す) | 因果・構造・予測可能な情報を内部表現に保持 |
| 高次化(統合して新しい段階) | 予測・推論・行動に使える統一的世界モデルを構築 |
📌 違い
- ヘーゲルは哲学的・精神的発展を語る
- 世界モデルは計算的・予測的システム
- したがって、止揚の「精神的意味」は直接意図されていない
💡 つまり、世界モデルは「止揚的プロセスのような構造」を自然に持つけれど、哲学的目的は持たない
📌 まとめ
- 世界モデルは「古い情報を統合してより高次の表現を作る」という点で、アウフヘーベン的プロセスと似ている
- しかし目的は純粋に「予測と推論のための効率的・統一的表現」であり、哲学的な止揚の意図はない
- 言い換えると:
世界モデル = データの「否定・保存・統合」を通じて高次の予測能力を得るシステム
ヘーゲル的止揚 = 概念・精神の発展プロセス
各々の「情報」の「関係性」や「繋がり」を、どうやって「学習」させていくのかは気になりますな...
仮に、ヤン・ルカン(Yann LeCun)氏の構想する世界モデル(World Models)が確立された場合は、「AI(Artificial Intelligence)」における「技術」の「ゲームチェンジャー」となるのでしょうかね...
とは言え、「世界モデル(World Models)」は、「認知のパターン」を「AI(Artificial Intelligence)」が「学習」できないことには、「世界」は広がっていかないと思いますからな...
私たちは,データである入力刺激(視覚パターン)だけによってパターン認知を行っているわけではありません。すでにもっている知識や,過去の経験,期待などによって,パターン認知の結果は左右されるのです。これを「トップダウン」処理と呼びます。
これによって,私たちはときに思い込みによる勘違いをするかもしれませんが,仮説をもって認知を行うことで,認識に関する複雑な情報処理を おそらくは より効率的に行うことができるようになっているのではないかと考えられます。
⇧ 上記サイト様にありますように、「パターン認知」はなかなかに複雑、且つ、「脳」の振る舞いも未だにファジーな部分が多そうな気がしますしな...
そして、
相関関係と因果関係の関係は、以下のようにも説明される。
- 因果は相関の十分条件である。
- 相関は因果の必要条件である。
- 相関は因果の十分条件でない。
- 因果は相関の必要条件でない。
「相関関係は因果関係を含意しない」は、科学や統計学で使われる語句で、2つの変数の相関が自動的に一方がもう一方の原因を意味するというわけではないことを強調したものである(もちろん、そのような関係がある場合を完全に否定するものではない)。
全く逆の言葉である「相関関係は因果関係を証明する」は、同時または前後に生じた二事象間の因果関係を主張するが、これは誤謬である。
相関と因果に何らかの関係があるというのは正しく、因果関係を証明するには、相関関係の存在が必要となる。相関関係は因果関係ではないが、それらが等価でないことを単に述べると、両者の関係についての情報が欠落する。
エドワード・タフティは、相関関係と因果関係について述べるには、最低でも以下いずれかのようにすべきではないかと示唆した。
- 経験的に観察された共変動は、因果関係の必要条件だが十分条件ではない。
- 相関関係は因果関係と同じではない。相関関係は因果関係の単なる必要条件の1つである。
⇧ 上記にありますように、「情報」の「関係性」を正確に把握するのは難しいですからな...
毎度モヤモヤ感が半端ない…
今回はこのへんで。

