Griffith et al. 2026 Wither Symbols in the era of advanced neural networks? 昨年のプレプリントが論文に。 https://x.com/TrendsCognSci/status/2046344973218717844 LLMの成功によって、Marrのアルゴリズムレベルで脳に記号表象が必要だという証拠は弱まった。その通りだと思う。CPC的に考えれば、記号(過程)は脳の外に。
Our personal .md file vault is the new artificial neocortex that we can use to extend our memories, and an LLM is the corresponding artificial hippocampus.
Our personal .md file vault is the new artificial neocortex that we can use extend our memories, and an LLM is the corresponding artificial hippocampus.
データセンターのように「スケール」できない生身の「LLM的な人間」としてどう生きるかを真剣に考えた結果、パフォーマンスと切り離したところで個人の世界モデル(My World Model: MWM)の世話をする1倍速の時間を意識的に持とうという結論にいたった。これが「LLM的な人間のための自己啓発CPC」。
Lightning Talk開始。トップバッターは東京大学の三浦千哲さん。 From Rapid Release to Reinforced Elite: Citation Inequality Is Stronger in Preprints than Journals Chiaki Miura, Ichiro Sakata https://arxiv.org/abs/2506.07547
TTT関連の新論文:TTT-Discover (Test-Time Training for Discovery) https://x.com/YejinChoinka/status/2015548029424795998 コーディングや数学問題など、あるverifiableな報酬が定義できる特定タスクに対して、固定された重みのモデルで推論スケーリングするのではなく、重み自体を強化学習で最適化していくことで精度を高める。
Andrew Ngさんが提唱するAGI Turing Test。https://x.com/i/status/2008578741312836009 人間知能の発露は「タスクの隙間」にあると考える私は、このテストでもAGIとして想定される知能とはギャップがあると思う。ギグリモートワーク的な仕事の代替は進むだろうが、ホワイトカラーワークの多くはもっとオープンエンド。
一年ぶりに Taniguchi+2024 "Generative Emergent Communication: Large Language Model is a Collective World Model" を読んだ。改めて、見通しが開ける論文だと思った。自分の理解考は、かなりこれがベースになりそう。