RA

いまは1週間の春休み中。遅れている勉強を推し進めたいところである。

夏休み、Foster 教授のもとでREDSというインドの家計調査のdata collectionに参加する予定。また、来年はvisitingでアフリカ農村家計の家計内資源配分を研究している先生が来るので、RAを申し込もうと思う。 どちらも非常に楽しみである。

03/14, 2014

本業のコースワークの成績が芳しくない。悔しい思いも今までにない頻度で体験する。考えてみれば、当たり前なのかもしれないが、言い訳が思いつくということは努力が足りないのだろう。言い訳をひとつひとつ消すために努力をしようと思う。ネイティブ(や英語を苦にしない留学生)と同じ時間を勉強しても、彼ら・彼女らとは渡り合えないのである。この世界は僕のような凡人の場合、頑張って頑張って、やっとトントンの世界なのだろう。その意味では初めての厳しい環境であり、精神的な強靭さが求められる。心技体すべてが試されているというのはよく思う。日に日に、研究環境に恵まれているという意味で出来る限りアメリカに居たいという気持ちが強くなっているのは確かなので、2段階ほど自分の中で上げてやれるだけ全精力を傾けてみよう。

Linear Probability Model  

被説明変数が2値変数の時に、OLS 回帰を行う推計方法をLinear Probability Model(LPM)と呼ぶ。

LPMの問題点は、(1) 誤差項に不均一分散が生じる (2) 予測値が0から1の間に落ちる保証がない という2点である。

1点目は、Gauss-Markov Theoremが成立しないことを意味し、推計値自体がefficientではなくなる。そのため、小サンプルの場合標準誤差も歪む。これに対処するために、Feasible GLSを用いて推計すべきである。あるいはOLSを用いる場合は、robust standard errorを使用し、それに基づき仮説検定を行う。

2点目は、説明変数の中央値以外は信頼できる推計量にならないことを意味する(確率-.2や1.3は、意味をなさない)。実際、この問題点が、誤差項に確率分布を仮定するProbitやLogitのモチベーションになっている。

しかし、以下も考慮すべきであろう。

(1) LPMは解釈が容易。

(2) LPMは、omitted variable biasの存在下でも省略変数と説明変数が直行していれば(キツイ条件であるが)不偏性と一致性を満たす。 ProbitやLogitのようなbinary choice model estimatorはomitted variable biasの存在下では省略変数と説明変数が直行していても、一致性を満たさず、この意味でspecification errorに脆弱である。 

(3) 小標本の場合、binary choice model estimatorは、perfect prediction の問題がある。一般的に、この問題はサンプルが大きくなれば解消する。 

(4) ML推定量は、漸近的に効率的でかつ一致性を満たすが、バイアスを持つ可能性がある。すなわち、ML推定量は大標本向け(一般的には100では厳しく、500以上で安全)である。  

まとめると、小標本の場合、ProbitやLogitよりもLPMを用いる意義があるだろう。