Durbin-Watson檢定公式
LM檢定公式
從資料角度去看,無庸置疑的是資料的數值都是已知的,我們使用迴歸分析來瞭解資料間的因果關係。換言之,此時,解釋變數與被解釋變數之間是樣本條件關係。然而,我們卻遺忘了一件事情,那就是資料也是可以形成分配的,那就是抽樣分配。
既然資料可形成抽樣分配,這意味著解釋變數與被解釋變數都是抽樣分配,需要以分配的概念去解讀。於是,在統計學內就明確寫著:
- 每個樣本服從母體分配
- 樣本的變異數一樣都是母體變異數
- 樣本之間是無線性相關
同樣在迴歸分析的解釋變數、被解釋變數與誤差都有各自的母體分配,並且滿足上面的三個條件。同時解釋變數與被解釋變數之間可以是聯合關係,也可以是條件關係。
進一步推導所得到的係數、殘差、甚至是殘差的數學組合、變異數分析表內的SSR、SSE、MSR、MSE、自我相關係數都是抽樣分配。
請注意,這些都是隨機變數或隨機變數的數學組合,所以都是抽樣分配(只討論一個數字,不是分配)。當樣本數夠大時,才能夠代表母體分配(樣本要多大,沒人知道)。
所以要使用公式前,問問:
- 你確定資料的抽樣分配了嗎?
- 你確定資料的抽樣分配轉換過程了嗎?(是數值的亂數表,不是機率生成的亂數表)
- 隨機變數的數學組合之間有沒有成為函數關係?(例如自我相關係數與MSE)
當我們確定每一個轉換步驟狀況後,就可以觀察到解釋變數數值、解釋變數個數、誤差母體分配、樣本數、殘差限制對Durbin-Watson檢定與LM檢定的抽樣分配變化。
確實,Durbin-Watson檢定適合所有樣本大小,但是Durbin-Watson檢定的決策規則本身有問題,不符合統計公式的原則,那就是灰色地帶判定給虛無假設,因此只有虛無與對立假設的二分法,以及分配的臨界值只會有一個數字,而不會有所謂的上下界。除非沒有控制住解釋變數數值與殘差限制影響,才會讓這兩個影響融入分配當中,造成臨界值的不確定,產生了帶狀區間。
Durbin-Watson檢定的抽樣分配在小樣本的時候變化很大,從arcsin分配轉變成近似梯形,再轉變至常態分配的過程,在在影響檢定的準確性。而且當自由度超過200後,可以捨Durbin-Watson檢定表而改由Z檢定表進行假設檢定(Lee, 2013於台灣計量經濟學會年會上報告,2014投稿國外期刊under review)。
不過,LM檢定就有趣了。
LM檢定公式內,主要的變數就是R平方。試問,孰有在國際期刊上見過討論R平方的抽樣分配,並且顯示出來?
當R平方在不同自我相關係數下之抽樣分配呈現出來後,可以發現在自我相關係數為0附近,R平方抽樣分配的期望值竟是相差無異,若使用於LM檢定上,這代表明明資料有自我相關,卻檢定出無自我相關。
這看似很小的失誤,若是用在財務金融上呢?若是用在政府發行的債券上呢?若是用在央行發行的貨幣量上呢?若是用來勞動部估算用的假設上呢?
你說會發生怎樣的情況?
雷曼兄弟又怎麼會知道原本設計良好的連動債,會在2007年讓其破產?
美國政府又怎麼會知道原本估計良好的財政問題,會在2013年會面對財政懸崖呢?
LM檢定更是需要在樣本數超過1000以上,才能使用卡方分配,而且自由度的計算上,不是樣本數扣掉落後期數,而是還得加上迴歸分析內的解釋變數個數。
換言之,我們認為Breusch、Godfrey設計出來的數學模式可以去掉解釋變數干擾,卻遺忘了在數學模式當中,仍存在解釋變數(wiki參考),同樣會有作用。
另外,一般國家的總體經濟資料多不足1000筆 (5年的日資料(240天)、20年的週資料、84年的月資料、250年的季資料、1000年的年資料),甚至還有時間不一致問題。因此,在使用資料分析時,皆需要非常小心注意後,才能進行自我相關檢定,而檢定時又遇到上述的問題。
所以在使用檢定公式上,
- Durbin-Watson檢定公式與LM檢定公式的相同問題都出在迴歸分析所需要控制的項目上
- 同時都有不敏感的問題
- 在實證資料的樣本數較少時,Durbin-Watson檢定與LM檢定都是需要獨立的檢定表
同樣也有各自的優點,例如:
- Durbin-Watson檢定確定自由度超過200後可以使用Z檢定表
- LM檢定的樣本數超過1000後可以使用卡方檢定
任何一種檢定公式都有存在的意義,遑論多數教科書始終未將Durbin-Watson檢定拿掉,同樣,LM檢定也是如此。所以在正確的使用時機使用正確的公式才能提高準確度,降低誤差機會。就如同區間估計有信賴水準,假設檢定有顯著水準一樣,這些都是控制誤差,代表精準地控制不確定性與隨機性。當研究者在使用這些假設檢定公式時,可別忘記,除了假設檢定的顯著水準外,你所使用的檢定表也是有誤差的。