At one time I thought the lack of acute division between AI ethics and AI safety communities in our country can be an advantange to realize healthier discourse, but now I feel more like we're exposed to epistemically dubious claims without antidotes.
2024.12.5 Brian Merchant “AI Generated Business” …AI Now Instituteからのエッセイ。OpenAIが「AGI」をいかにマーケティング用語として使ってきたかを、米国の投資環境などと関連付けて紐解くアナザーナラティブ。これがすべてではないとは思うが、読む価値あり。https://buff.ly/41fjWFs
2024.12.1 M. Nielsenによる長文エッセイ「How to be a wise optimist about science and technology?」。https://michaelnotebook.com/optimism/index.html AGI/ASIによるxriskが存在しているという前提のもと、破滅論に陥らずにどのように考えればよいのかを考察。参考になる思考のフレームワークがたくさん。
2024年11月オープンアクセスで発行。Alexander Krauss "Science of Science: Understanding the Foundations and Limits of Science from an Interdisciplinary Perspective" https://buff.ly/4fP77Gd 狭義のSciSciではなくあらゆる角度から学際的に科学の基礎と限界を検討。少しずつ読もう。
Future of Life Institute strongly opposes the "AGI Manhattan Project". https://x.com/tegmark/status/1859267448916304220 In my view, this is the battle between camps 1 and 3. Whereas the Trump administration trying to cancel many regulatory measures in AI is between 2 and 3.
第2回メタサイエンス勉強会の開催記録を公開。再現性問題の「先」にある「一般化可能性問題」、私は恥ずかしながら初耳でしたが、どの分野でも問題になりうる、まさに”elephant in the room”だと思いました。植田さんのご発表が整理されていてとにかく素晴らしかったです。 https://buff.ly/3V1T9Iy
I've been advocating for this Tripolarized view of the AGI-risk conversation lately. Interestingly, of the many academic researchers I followed on X, those who fall in categories 2 and 3 seem to be way more likely to leave X and move to places like Bluesky than those in group 1. https://t.co/C0NBCCDh5J
I think that's because he was interested in understanding the brain as a computer (of his time). If that can be done then the brain might be interpretable and more importantly manipulatable as a computer. Developmental and evolutionary understanding did not have such uses. https://x.com/KordingLab/status/1853987319168270389
I noticed that Qiu & @michael_nielsen 's essay "A Vision of Metascience" explicitly says they omitted AI as a transforming factor of the social process of science. It's about time we talk about the metascientific potential impact of AI. https://scienceplusplus.org/metascience/#fn143https://t.co/nL72KmfK75
Given that this year's Nobel Prize reminded us that AI in science will become increasingly the norm, I'm curious who envisions the ecosystem of AI-human hybrid scientific enterprise. I'm finding way less discussion on this topic than I would expect. https://x.com/rmaruy/status/1845665270855336434
Maleki+2024. AI Hallucinations: A Misnomer Worth Clarifying. AIにおける「ハルシネーション」という言葉の使われ方をとことん調べた研究、面白いな。2000年代は画像分野のみだったが、2010年代後半に機械翻訳の文脈に入り、ChatGPTでCS以外にも広がった。 https://arxiv.org/pdf/2401.06796v1
Science as it could beから、Science as it should be / want it to be を集中的に話し合って、メンバーで「科学デザイン原則」を取りまとめてみる実験的なワークショップをしたら面白そう。メタサイエンス的な感覚のある、一流の20-30代の科学者を巻き込めるかがたぶん鍵になる。
2024.9.25 カリフォルニアのSB-1047の決着がつく少し前に、スタンフォードのメンバーを中心に打ち出された声明「A Path for Science‑ and Evidence‑based AI Policy」。Fei-Fei Li氏、もとOSTP長官のNelson氏、AI Snake OilのNarayanan氏らがいる。 https://x.com/dawnsongtweets/status/1838610481797333150
@MrHengYang @bioshok3 At this moment, I've written this essay only available in Japanese... (partly because it is mainly intended to fill the knowledge gap on AGI risk discussions in the English-speaking and Japanese-speaking worlds).
Much wanted in this era of AI for/in Science may be "The Structure of *Meta*scientific Revolutions" featuring the transformation of science as a social process through innovations in technological infrastructure. The closest may be @michael_nielsen 's "Reinventing Discovery."
2024.10.12 Dario Amodei氏エッセイ「Machines of Loving Grace: How AI Could Transform the World for the Better」掬読了。https://darioamodei.com/machines-of-loving-grace… まずAmodeiさんの知力に敬意を覚える。この未来がくるとは私は思えないが、ものすごくよく書かれているし誠実さも感じる。(続)
When people start saying "Now we can't do X without AI," the immediate next questions should be, "What have we meant by saying 'doing X' all these years?" and how is "'AI for X' changing what we mean by 'doing X'?"
【お知らせ】10/18 Open academia Lectures #2 では須田桃子さん@MomokoSuda をお迎えします。新聞、書籍、Webと、マルチメディアで科学ジャーナリズムを実践する須田さんから、ご自身のお仕事について伺う数少ない機会だと思います。https://academist241018.peatix.com/view
Boyle & Blomkvist (2024)、ざっと読了。心理学・認知科学で蓄積された議論に比べて、AI分野で「エピソード記憶」概念がゆるく使われている状況を踏まえ、より広い「イベント記憶」を使うことを提案。その上で、AIのイベント記憶と、認知科学の記憶研究がどう互いに資するかについて広く検討している。
「AIとエピソード記憶」の哲学的分析に関する本格的なレビュー論文が出た。これは読む。 Boyle Alexandria and Blomkvist Andrea 2024Elements of episodic memory: insights from artificial agentsPhil. Trans. R. Soc. B37920230416 http://doi.org/10.1098/rstb.2023.0416
Tomorrow AI Alignment Network (ALIGN) will be hosting its inaugural 2.5-hour symposium, inviting leading figures of AI research and AI governance across industry/academia/government/lawmaking sectors. https://www.aialign.net/symposium-240909
Vermeer "Historical Analogues That Can Inform AI Governance" 読了。見通しが良い整理だと思ったので表にしてみた。こう見ると、やはりAIを一つの技術だとみなしてガバナンスしていくことの無理が際立つ。 https://t.co/eHecO12UYC
タイトルはTenenbaum一派が6年前に出した”Building machines that learn and think like people”のオマージュ。 https://rmaruy.hatenablog.com/entry/2018/01/03/085105 「認知科学が大事」という主張は一緒だが、その目的を「人間のように考えるAIを作る」から「人間とともに考えるAIを作る」へと変えているのが非常に面白い。
Tenenbaum & Griffithほかによるperspective論文"Building Machines that Learn and Think with People"読了。https://arxiv.org/pdf/2408.03943 人間に代わってではなく、人間とともに考えてくれるAIを作るために、心の理論や世界に対する信念の共有などベイジアンな認知科学の知見を使っていこうという。 https://t.co/w0HK56UiQl
Fascinating list of questions. Though I may be more interested in "meta-"scientific ones: - is the emergence of intelligence capable of understanding the universe an intrinsic property of universe? - does the notion of "computation" make sense in the absence of intelligence? https://x.com/ylecun/status/1819670025155850466
上記事中のPavlick氏の発言引用:“I don’t really like when the question becomes ‘Does the model understand—yes or no?’ because, well, I don’t know. Words get redefined and concepts evolve all the time.”
@HiroTHamadaJP @iamtrask Thanks!! In the ALIGN (AI Alignment Network) Slack, I found that @mari_izumikawa is interested in this topic and willing to dig deeper in his works. May be she should talk to @nishio-san as well. (Though she'll be busy organizing another event until Thursday.)
【記事公開!】 先週のFunding the CommonsでのアカデミストCEOの柴藤さん@RShibatoの発表「Open academia に向けた研究の分散化」が記事になりました。 アカデミストの目指す「Open academia」とは何か、10年の実績、そして今後の「分散型研究所」構想が凝縮されています。#FtCTokyo https://t.co/orSNqLmqo0
@davidad Consciousness can always be a pseudoproblem if you wish to see that way; likewise, motion can be a genuine mystery even now if you wish to see that way.
This seems to me an excellent point. The next thing I would wonder is whether people will/should trust a "seemingly interpretable insight" from an "uninterpretable model". Would there be a way to make sure that such partial interpretability is not hallucination? https://x.com/msyk_nagai/status/1806726982681403794
Jaeger et al. 2024. "Naturalizing relevance realization: why agency and cognition are fundamentally not computational" 認知・意識・エージェンシーの「非計算主義」の急先鋒、Jaeger氏らによる大作。とても興味深い。 https://t.co/StKRaYFpZ2
The very existence of anything that can be called an AGI (though I personally also don't know what that is) will no doubt change what we mean by "understanding the brain". https://x.com/fchollet/status/1805480227319214445
AIと民主主義のセッション”AI Challenges to Global Democracy: Current ‘State of Play’”終了。添付は用意したスライド。自分が一番保守的だった。。。イギリスの「AIスティーブ」について教えていただいた。 https://t.co/JTtqYFOrFB
Disturbing not because I really believe that is possible in the near future nor because I think they will result in the same level of catastrophe, but because of the realization that such fear that your "opponent" will acquire some "superpower" has always been our driving force.
Creating an AI system that can do AI research by itself would give a game-changing level of competitiveness. Such "chain-reaction" of iteratively self improving AI is disturbingly reminiscent to what Oppenheimer and Nishina were seeking after 80 yrs ago across the pacific.
1) AI is governed either democratically or undemocratically. + 2) Democracy is either threatened or helped by AI. -> - virtuous cycle: Democratically governed AI helps democracy. - vicious cycle: Undemocratically governed AI undermines democracy.
About ten years ago people at the UN agreed to pursue an ambitious set of goals called SDGs, and we were told a few trillion dollars annually will help achieve it by 2030. Nobody could have imagined that humanity would be pouring the equivalent money into "compute" .
昨年5月、Center for AI Safetyなる団体から「AIによる絶滅リスクを軽減を世界的な優先事項に」とするオープンレターが出たとき、私はこのメッセージにかなりの違和感を抱いた。これに多くの著名な研究者が署名したという事態をうまく解釈することができなかった。しかし、それから1年後(続) https://x.com/rmaruy/status/1663504643257942016
研究におけるフィランソロピーの役割、メタサイエンスの興隆、「メタサイエンス・アントレプレナー」(by @michael_nielsen & Qiu)といった前報告書の着眼を引き継ぎつつ、さらにDecentralized Scienceの動向まで踏み込んだ、文科省のレポートとは思えない内容になっています。(続)
GoogleのAIアシスタント「AI Teammate」の発表を見て「秘書は全てAIに置き換わる!」と言っている人を見かけるが、ここでまさに問題になるのが信頼(trust)。 AI Teammateとの信頼関係は、大屋先生のいう「代理/権威/信託」モデルのうちどれだろうか。そしてトラストのアンカーはどこに見いだせるか。 https://x.com/rmaruy/status/1789193304808296841
Do I live to understand, or do I understand to live? To realise that this is a false dichotomy, that the most fundamental scientific/philosophical theories can't be disentangled from human interests, seems to be necessary if one really pursues an epistemic objective of life.
『the four GAFA』の著者Scott Galloway氏へのインタビュー。さすが、AI産業の状況認識の説明はわかりやすい。AIがもたらす問題として、真に危険なのは「大統領の年齢を3歳高く見せる」ような微妙な偽情報"shallow-fake"、孤独な若者を狙った恋人AIとそれによる操作。 https://share.transistor.fm/s/67e3b505
興味深い。原論文のタイトルは「Designing Multispecies Worlds for Robots, Cats, and Humans」で、環境を設計したアーティストや、ロボットを操作する人間の役割を強調しているので、この記事のタイトルと内容、それ対するX上の反応はかなり元論文の趣旨とずれていると感じる。 https://x.com/shiropen2/status/1788409479362728287
(But of course, the next question would be how then do we define a "fact of the world" when we only have access to it through hallucinations? And if we can't define a "fact", definition of a "hallucination" comes into question. Such is the ungroundedness of words.)
Maybe all we sentient beings can do is hallucinate; it may be that when our hallucination is by some chance aligned with some fact of the world, we call it perception or memory or understanding. https://x.com/kanair_jp/status/1787834495468761282
I’m very happy to be having @emiyazono with whom I met at the Metascience Conference in DC almost an year ago. He's done great things in metascience and now taking a bold and interesting step into AI safety. https://x.com/AIAlignNetwork/status/1785614959612944692
Safeguarded AI programmeの勉強会、面白かった。。やっぱり理解できない点は多いが、近くで見ている方のお話で全体像の霧が少しだけ晴れた。実現性はともかく、かなり高度に詰めた絵で人々にインスピレーションも与え、世界中のタレントを引き寄せ、何かが起こるという期待感を生んでいる。要注目。
Jack Stilgoe氏の出演するBBC Radioの30分番組。Jeff Hinton, Kate Crawford, ConjectureのConnor Leahy など、Existential threatの提唱者と批判者の両方へのインタビューがあり、大変充実している。https://www.bbc.co.uk/programmes/m001xdg5
Ahmed+2024 ”Field-building and the epistemic culture of AI safety” 科学人類学の「認識的文化(Epistemic Culture)」概念を頼りに、AI Safetyコミュニティのカルチャーが大型のfunderの存在のみならず種々の活動の相乗効果で台頭、影響力を増してきたことを報告。https://doi.org/10.5210/fm.v29i4.13626
2024.4.18 Jack Stilgoe氏のScienceオピニオン記事”Technological risks are not the end of the world”。x-riskに関する論点づくりが、奪う人と奪われる人の差を隠し、より現実的で重要な議論からリソースを奪う。昨年の米国大統領令がx-riskに触れなかったのは健全だと。https://www.science.org/doi/10.1126/science.adp1175
…しかし5900万ポンド(~110億円)というのは、日本で言えばERATO10個分。それを30歳代のDavidad氏に任せるという、英国ARIAの本気度。。気になってDavidad氏のCVを見たら「Youngest-ever recipient of an MIT graduate degree (age 16)」らしい。
Konrad Kordingさんはずっと考えてきたはずだが、「mechanistic interpretability」と言っているのは聞いたことがないかも。Konradさんが話題にしていたRoss&Bassettでも、もろメカニズムの話なのにこの言葉は出てこないようだ。NeuroとAIの近くて遠い関係が垣間見える。 https://x.com/rmaruy/status/1755021581355815353
#TAIS2024 ended. Among many amazing things I saw, perhaps the most impressing was the skillful organizers (Blaine Rogers and Kaitlan Melone). How Blaine talked and walked elegantly on stage was awesome. Their role in initiating AI safety community in Japan is to be remembered.
I am evolved in kickstarting a nonprofit concerned with AI alignment research. What excites me is the opportunity to learn hands-on how to build a new org and make it work in the space between science and society. I really want to find someone who will take this chance with me.
2024.3.11 北京で開催されたInternational Dialogues on AI Safetyより声明発出。「冷戦のさなか、科学および政府の国際的な連携が、惨事を回避するのに寄与した。人類は再び、…[AI]による大惨事を回避するために連携する必要がある。」Bengio, Hinton, Russellらが参加。https://idais.ai/#
最後の点については「tragedy of commodification」というキーワードを軸に論じていただいた。非常に真摯かつ丁寧な返答をいただけて感動した。 LeslieさんのようなAI倫理系と、BengioさんのA(G)I alignmentの問題意識を排反ではない仕方で扱う道が初めて見えた気がして、非常によかった。
I heard Prof. Bengio talk about his strategy to tackle "AGI Safety" (had the oppotunity to ask him a question). People worry about AI in different ways, and I think it must have been relatively difficult to get across his worries to Japanese audience. But the talk was great.
Shanahan氏は、今後の生成AIについての語り方がどこに向かうにせよ、「それは生成AIの技術的理解とともに哲学の素養の上になされなければならない (should be philosophically literate)」という。個人的には、そのリテラシーを70年前の哲学者が用意してくれていることに驚異を感じる。
"As we enter an era of pervasive artificial intelligence technology, philosophical questions that have long been safely confined to the armchair are rapidly becoming matters of practical importance." …AIの時代、長年「机上」に留まっていた哲学的な問いは実践的なものに変化。
I've started on a path with no idea where it leads, and I'll probably face challenges that will force me to pivot many times, but the good part is that I get to talk with brilliant people along the way, which may be the sole motivation to keep me going on this haphazard journey.
[Tham+2024] Scientific Talent Leaks Out of Funding Gaps https://arxiv.org/abs/2402.07235 NIHで何らかの理由でファンディングの更新が遅れた事例から、ファンディング遅延が研究者の流出や待遇悪化にどの程度つながるかを調べた研究。
Ross King先生に、AI科学について科学哲学から考えることへの関心について質問したところ、それをしたかったのだし、科学哲学者と一緒にやってきたとのご回答。すぐに調べると興味ど真ん中の論考が…。King+2018 Automating Sciences: Philosophical and Social https://ieeexplore.ieee.org/document/8307145
Bostrom (2006)の超知能の定義:”By a "superintelligence" we mean an intellect that is much smarter than the best human brains in practically every field, including scientific creativity, general wisdom and social skills.” https://nickbostrom.com/superintelligence
I had the privilege to participate in the two-day #DAOUTokyo conference thanks to @HiroTHamadaJP. Here's an extremely rough note on the event as seen by a complete Web3 novice. Learned so much. https://note.com/rmaruy/n/nc9eeae1e6102
Ross & Bassett (2024) “Causation in neuroscience: keeping mechanism meaningful” 神経科学における「メカニズム」概念の多義性について、科学哲学の蓄積をレビューしつつ、よりよい使用を提案。資金配分や科学コミュニケーションへの影響まで考えていてとても良い。https://www.nature.com/articles/s41583-023-00778-7
本日のICSSI(近年立ち上がったScience of Scienceの国際会議)報告会は非常に充実していました。世界の研究動向を肌感覚込みで追うのみならず、日本ならではの展開を含めた戦略と、政策立案者も含めた知識のユーザーも巻き込む動きにしていこうという、力強いキックスタート。3月の研究会が楽しみ。 https://x.com/cfu_miura/status/1750074810670158254
マッカスキル『見えない未来を変える「いま」』(What We Owe the Fututre)読了。印象残ったのは、1)価値観の固定化(value lock-in)自体避けるべきとの主張、2)技術革新の停滞(stagnation)自体が文明崩壊のリスクであるとの主張、3)「効果的利他主義」の語を本書では全く出していないこと。
Cowen & Southwood (2019) 「科学の進歩は減速しているのか?」を、GDP成長や全要素生産性などの経済指標や、Science of Scienceを横断しながら考察。複数の観点からたしかに減速しているかもしれないが、悲観は禁物という論調。徹底的に経済成長の視点からみた科学。http://dx.doi.org/10.2139/ssrn.3822691