我們輸入一套數據
那套數據是一個correlation matrix(相關矩陣 S)
而這矩陣是根據100位受試者在九個學科測驗的表現計算出的
除了矩陣S以外,我們還得輸入一個模型 (概念)
那個模型表達了學科之間的關係及分類模式
然後電腦會估計出一套最適合的參數
這一套參數就會産生出一個矩陣,稱爲∑
根據電腦計算,這個∑跟S的距離是最接近的
但我們還想知道,雖然當前∑跟S的距離已經是最接近
這個最接近的距離在統計學上是否真的被接納呢?
因為當前∑跟S的距離只是我們的電腦計算出來的
這距離在統計上是否很大
這一點,就需要我們去檢查
整個模型的準確性及其簡潔性
如果產生出的矩陣∑
跟輸入的S很接近
這就表示我們假設的模型
頗為準確地反映S裡變量間的關係
這亦就是統計學上的準確度
如果産生出的∑跟輸入的S很接近
這就表示我們假想的模型能很準確地反映變項之間的關係
即我們假設的模型準確度很高
準確度一般就是指∑和S之間的距離
那距離越小,準確度就越高
擬合優度指數(Goodness of fit index)
就是用來表示兩個矩陣的吻合度
常用的Goodness of fit index有chi-square(χ2)
NNFI及CFI (及RMSEA)
chi-square是一個常用的傳統指數
使用歷史比較長久
chi-square表示了∑和S之間的距離
∑和S之間的距離越大,chi-square就會越大
相反,∑和S之間的距離越小,chi-square就會越小
當我們分析研究數據時
我們希望chi-square越小越好
chi-square的值越小
就代表我們輸入的矩陣S
和電腦產生的矩陣∑相差很小
只要兩個矩陣間相差小,chi-square的值就會很小
但chi-square有很多需要留意的缺點
因此有很多其他擬合優度指數被提出並廣爲使用
例如NNFI(亦稱為TLI)
CFI以及跟CFI很類似的RNI
它們三者都是比較類似的指數
一般來說,如果CFI和NNFI大於0.90
就表示兩個矩陣的吻合度很高
換句話說,就是輸入的矩陣S
和電腦產生的矩陣∑差距很小
兩者之間的距離小,則代表我們假想的模型頗吻合當前的數據
當我們設計該模型時
我們希望模型盡量簡化
就先前100個得分的例子,如果我們簡單提供數據的mean和standard deviation
就能代表100個數據
這就表示我們所提出的模型(以均值及標準差代表), 是一個好的模型
換句話說,一個良好的模型必須準確而簡單
雖然現實中每個科目之間的確有關係
假如我們在假想的模型中把那些關係逐一列出
卻不能幫助我們理解模型以及模型中每個學科之間的關係
這樣就過於複雜,不够簡潔
不過,如果我們提出學科大概能被分成三大類
這已經能協助我們掌握學科之間的關係
這是一個既簡單反映學科之間的關係的一個模型
因此模型越簡單越好
但怎樣的模型才叫簡單,怎樣才叫複雜?
這就得參考degree of freedom自由度
degree of freedom越大就代表我們假設的模型越簡單
要計算degree of freedom
就需要知道不重複元素
在這相關矩陣中,不重複元素就是
對角線及以下的每一個數值(範例中有45個)
就像範例中,我們有九個變項
如果我們把這兩個三角形拼成一個長方形
九個變項就會有p x (p+1) 項資料
例如當前的變量數目就是9 x (9+1)即是9 x 10
而9 x 10就是這個三角形的兩倍面積
要留意的是兩個三角形在對角綫上是重叠的
因此不重複元素就是9 x 10/2,相等於45
就如右上圖顯示,包括對角線上的數值
我們共有45個不重複元素
即是我們需要向電腦輸入了45個元素
而我們要估計的參數
共有螢幕顯示的9個loading + 3個correlation
加上沒有顯示的9個題目誤差
換句話說,要估計的參數
共有9(loading) + 9(error) + 3(correlation) = 21個
所以範例中,我們有9 x 10/2 - 21,即24個degree of freedom
因此這個模型的degree of freedom就是24
參考這個方程式,我們就會發現
要估計的參數越少
模型的degree of freedom就越大
如果有人提出,這三個因子之間是沒有關係的
即是三個因子之間的相關都等於零
換句話說,如果這三個因子之間的關係路徑並不存在
我們需要估計的參數就減少
即是要估計的參數只餘下9(loading) + 9(error)即18個
這樣我們假想的模型的degree of freedom就變成27
換句話說,當我們要估計的參數越少
我們假設的模型就越簡單
模型的degree of freedom亦越大