この間の同窓会のときの会話で「ユヴァル・ハラリ」と「ジュンパ・ラヒリ」を取り違えて喋ってきたことに、今になって気がついた。
posted at 10:49:13
Stats | Twitter歴 5,952日(2007/12/13より) |
ツイート数 25,041(4.2件/日) |
表示するツイート :
この間の同窓会のときの会話で「ユヴァル・ハラリ」と「ジュンパ・ラヒリ」を取り違えて喋ってきたことに、今になって気がついた。
posted at 10:49:13
いまだ仕事納めできず。12月36日までには仕事納めできる見込み。外は風の強い大雪。仕事場への道を散歩してきた。いつもの通り道の足跡が無くなっていて、フワフワの雪が積もっていた。 https://pic.twitter.com/JiBKNMwwEm
posted at 12:55:32
連続値でのFEPについてチュートリアルでの説明を改良できることに気づいた。1) gaussianの仮定でフルベイズで事後分布を計算 2) それがVFE最小化で出てくる 3) それがNNで実現できる、これらをちゃんと分けて説明すべきだった。そうすればカルマンフィルタとの関連もより直感的に説明できた。
posted at 15:48:20
そうすれば離散値でのVFE最小化と同じ形式で説明できるので、パラレリズムを効かすことができた。書籍を書くとしたらそういうふうにやってみよう。
離散値は2値の例だけ説明して、カテゴリカル分布は式だけ書いておく、連続値は1変数の例だけ説明して、多変数は式だけ書いておく。構成が見えてきた!
posted at 15:54:56
ちょうどRaoによる総説というのが出ていた。https://arxiv.org/abs/2112.10048 Rao and BallardのモデルにおけるVFEの式が書いてある。第1項はベイジアン・サプライズ(事前分布から事後分布への変化の大きさ)で、第2項は予測誤差([実際の感覚入力]-[信念から予測した感覚入力])。
https://twitter.com/RajeshPNRao/status/1476724532492730370… https://pic.twitter.com/TPfhU6XCr6
posted at 16:06:02
これまでの説明スライドでは、1)の式を書かずに、2)の中で1)についてちょっと触れたうえですぐに3)に行くという構成だった。それじゃ迷子になるよなあ。あそこはじっくりと、ステップごとに一息入れて、必要なら質問を受けて説明するべきポイントだった。
posted at 16:11:39