ただの感想文3連発です.
回帰分析における正規誤差の仮定¶
誤差項に期待値 0,分散 の正規分布を仮定する回帰モデル.明示的かどうかはわかりませんが,これを仮定した結果をレポートしている研究はたくさんある気がします.少なくとも実践系の授業では,値や統計量の値,さらには推定された係数の標準誤差を載せたテーブルをレポートさせます.これらの値は正規誤差を仮定がなければ全く意味のないものになります.一応事後的に,残差が正規分布してそうかプロットしたりしますが,なんとなく強い仮定だなという印象が拭えません.
残差ベクトルの内積を分散で割るとカイ二乗分布する¶
M1秋の数理統計学特論では,回帰分析の線形代数的性質が重点的に扱われました.昨年度学部生として受けた時とは異なる証明の仕方などもあったので,それも合わせて面白かったです.まだ受講中ですが.
特に昨年度はグラム・シュミットの方法を使わずに “残差ベクトルの内積を分散で割るとカイ二乗分布する” ことを証明していた気がするのですが,今年度は射影行列が正規直交基底で表せることなどが新しく説明されていて,骨太な授業というのは年度を跨いで受講してもやはり面白いなぁと思いました.
いつかこのブログに教わった内容を復習として載せるかもしれません.
経済学者から見る因果推論¶
今年度のマクロデータサイエンスでは,昨年度の潜在結果モデルの内容に付け加えて,経済モデルから構造方程式を導出する伝統的な因果推論の手法や,Judea Pearl のSCM(Structural Causal Model)への導入などかなりリッチな授業でした.まだ受講中ですが.
インターン先でちょうど SCM について学習を進めていたので,ホクホクです.それにしても先生の説明がわかりやすくて脱帽です.心理学の世界にはファインマン効果と呼ばれるものがあるらしいですが,ファインマンもきっとこういう授業をしていたんだろうなと思ったりするほどです.
以上.