论文部分内容阅读
项目功能差异(Differential Item Functioning,简称DIF)是指在控制团体能力之后,一个项目在不同团体中表现出的不同统计特征,它是目前常用的检验测验公平性的统计指标。题组(testlet)是指具有相同特征或共同刺激的一组项目。题组测验由于项目间具有局部依赖性,对题组测验进行DIF检验时需要采用与之匹配的DIF检验方法。基于题组反应模型的DIF检验方法是真正能够处理题组效应的DIF检验方法,是目前题组DIF检验方法中较有理论优势的一种,目前主要使用的方法是Rasch题组DIF检验方法。Rasch题组DIF检验方法建立了良好的模型,能够处理题组项目间的依赖性,并能够针对题组内的每个项目进行DIF检验,但国内目前关于该方法的相关研究较少。MIMIC方法是近几年用于DIF检验的新方法,与传统的DIF检验方法相比具有分组变量更加灵活、可以分析背景变量和潜变量关系等优势,在DIF检验中具有较大潜力,但目前还少有研究者将其用于题组DIF检验中。 因此,本研究将Rasch题组DIF检验方法和MIMIC方法用于题组DIF检验中,使用模拟研究的方法探索两种方法在题组DIF检验中的参数估计精确度、犯Ⅰ类错误的概率和DIF检验力,并对两种方法进行比较以探查在不同样本量、项目数、DIF项目比例等条件下更为适用的方法以及不同条件对题组DIF检验结果的影响。研究结果可以为如何在题组DIF检验中选择更加适合的检验方法以及测验工具的编制提供一定的指导建议。 研究发现,使用题组DIF检验方法对题组测验进行DIF检验十分必要,题组DIF检验方法能够针对题组中的每个项目进行DIF检验,能够恰当的处理题组效应,并且具有较高的参数估计精确度,能较好的控制犯Ⅰ类错误的概率和具有较高的DIF检验力。同时,样本量越大,项目数越多以及DIF项目比例越小,Rasch题组DIF检验方法和MIMIC方法的参数估计精确度越高;样本量越大,DIF项目比例越高以及项目数越少,两种方法犯Ⅰ类错误的概率越大。根据对Rasch题组DIF检验方法与MIMIC方法的比较发现,Rasch题组DIF检验方法比MIMIC方法能够更好的控制犯Ⅰ类错误的概率和具有较高的DIF检验力,特别是在样本量和DIF项目比例有较大增加时,Rasch题组DIF检验方法能够较好的控制Ⅰ类错误的增加幅度。 本研究可以帮助国内相关研究者更加深入的了解题组DIF检验方法,并对该方法进行一定程度的推广,为相关研究者在针对题组测验的DIF检验中提供更加科学、准确的检验方法,并对题组测验的编制具有一定的借鉴意义。研究结果可以为研究者进行题组DIF检验提供新思路,新视角,帮助研究者在CFA模型的视角下进行题组DIF检验,丰富题组测验的DIF检验方法,对题组DIF检验方法在理论上和实践上都起到一定的推动作用。同时,本研究对两种具有理论优势的并能够处理题组效应的DIF检验方法进行比较,了解两种方法在不同条件下各自的优劣势,能够为实践中题组DIF检验方法的选择提供一定的指导,更加科学准确的保证阅读测验工具的公平性。