王蕾

您所在的位置:网站首页 渎神圣王三阶段 王蕾

王蕾

2023-09-19 06:40| 来源: 网络整理| 查看: 265

2.1 重要研究成果

这一时期研制出的可读性公式数量颇丰。Lively & Pressey(1923)通过衡量句法难度(词表中所包含的词)和语义难度(每句中的单词数目)制定了第一个客观的英语可读性公式(Hiebert 2002)。但因其方法操作复杂、耗时长,应用并不广泛。此后,Vogel & Washburne(1928)首先使用多元线性回归的方法研制出了新的可读性公式。研究中引入桑代克词表,将学生阅读理解成绩作为因变量,以词汇、句子结构、词类、段落、总体结构、文本物理因素(包括间距等)六个层面共28个指标为预测变量,通过逐步回归最终得到包含4个预测变量的公式(Vogel & Washbure 1928): Reading test score = 0.085X1+0.101X2+0.604X3-0.411X4+17.430 (X1=1000词表中的不同词语数;X2=1000词表中的介词数;X3=10,000词表之外的词数;X4=75个样本句中的简单句数)。其中的自变量是根据25名教师的判定及与学生阅读理解成绩的相关性选出的,变量选取较为科学、客观。该研究被试量大、测试文本样本多,采用了当时条件下复杂的统计方法,得到了文本难度与文本指标之间明确的数量关系,在研究方法上具有较强的参考价值。后人研究几乎都采用了选取文本变量、引入词表的方式,多元线性回归也成为可读性公式研究中的重要统计方法。此后大量公式被开发出来,如Flesch Reading Ease公式、SMOG公式等,很多公式至今仍在广泛使用中。

二语教学领域的可读性公式研究起步相对较晚,Spaulding(1951)将人工判定的文本难度作为因变量,以词长、句长、词频等五个指标作为自变量较早制定了非目的语环境下西班牙语作为二语的可读性公式。Nilagupta(1977)则较早以泰国ESL学习者为被试,探讨语法难度与文本可读性之间的关系。该研究虽未建立可读性公式,但在“可读性”这一主题下充分考虑到泰语与英语之间文字书写符号、语义线索和语法之间的差异,对引起非母语者阅读困难的文本因素做了较为深入的研究。

2.2 本阶段研究特点

可读性公式在这一阶段萌芽并从美国教育领域迅速发展起来,大部分研究成果具有类似的特点,差异主要体现在变量选择与所依据的词表等方面。其共同点主要体现在:

第一,应用指向性强。这一阶段可读性公式研究的首要驱动力是解决教学中的实际问题,实现阅读材料与阅读者水平之间的合理匹配,也就是说研究直接指向应用这一目的,并非单纯的构想或设计。所得到的公式或是为美国小学以上的学生服务(如Flesch Reading Ease公式)或是为美国海军服务(如Flesch-Kincaid公式),均有明确的适用对象。研究中除对公式的推导过程有详细说明以供其他研究者参考外,有的还具体介绍如何套用公式进行文本难易度分析以备教学者或出版商使用,如SMOG公式(McLaughlin 1969)。变量是否能够客观且快捷地测量、公式是否便于使用,即操作的经济性是研究者们考虑的重要方面。而变量取舍依据、不同公式之间差异产生的原因等方面,鲜有理论层面的讨论。正因如此,研究者似乎并未提及二语文本阅读的特殊性,这也在某种程度上表明这一时期二语领域的可读性公式研究还未得到重视。

第二,研究范式逐渐趋向一致。从研究范围上看,早期提及的文本物理层面的因素如字体、字号、字符间距等指标逐渐被舍弃,而将文本因素限定在语义和句法难度两个层面上,通常用词长、词频等指标衡量语义熟悉度,用句长衡量句法难度(Gilliland 1976: 91;Klare 1984等)。Jeng(2001)比较了这一时期7个公式包含的变量,发现变量选择具有很强的一致性。从阅读难度的参照标准看,早期并不统一,有的研究使用标准化测试成绩,如Vogel & Washbure(1928)使用斯坦福成就测验(Stanford Achievement Test)中的阅读理解成绩;有的采用教材已有等级,如Spache(1953);有的则利用人工主观判定。70年代前后学者们更倾向使用等距离完形填空的方式。这种方式可以避免测试问题的干扰,使读者的测试成绩与文本关系更为密切,从而能更好地测量读者对文本的理解程度,因此,有研究者认为,这一时期的很多探讨为可读性公式研究定下了一些“标准”,形成了可读性公式的“传统研究方法”(traditional style method)(Benjamin 2012),可以认为是研究标准的形成期。

第三,公式信度检验方法相似,但有待验证与提升。这一时期研制出的很多公式很快投入实际应用,但公式信度检验一般来自公式本身或公式间比较。一方面,公式本身主要依靠多元线性回归统计中的复相关系数(R)或拟合优度系数(R2),这一系数越高,公式的预测性就越好、公式就越稳定(Bormuth 1971;Cunningham et al. 2018等),如Vogel & Washbure(1928)公式的复相关系数为0.845,虽然当时是较大的突破,但公式也仅能解释约64%的变异。另一方面,新公式的检验主要依靠与已有公式之间的相关性检验,如Flesch-Kincaid公式与Fog公式、Flesch公式的相关系数分别为0.80、0.87,呈高度相关,研究者由此认为新开发的公式是可靠、稳定的(Kincaid et al. 1975)。以上两种检验方法可在一定程度上说明公式本身的信度,但鲜有研究引入更多的新文本对已有公式进行有效性检验。

三. 理论性反思阶段(20世纪70年代末到90年代末)

20世纪70年代前后正值心理学研究转向认知时期,心理学家开始关注人类认知,重视分析认知的内在过程,即信息加工的过程(Pearson & Hiebert 2014)。具体到阅读理论方面,图式理论(Schema Theory)、高夫阅读模型(Gough’s Reading Model)等理论和假设不断出现。虽然这些理论之间差异较大,但都强调阅读是人与文本互动的过程。而1971年第一台微型计算机诞生,大规模集成电路的应用使计算机性能不断提高,使用电脑开发自动化、简便易行的可读性公式便成为可能。00条笔记由于已有不同公式之间测量结果存在差异,人们开始对传统研究方法进行反思。有研究者直接指出,可读性公式研究仅考虑语言学层面的因素是肤浅的、不合理的,即使是最好的可读性公式实际上能发挥的作用并不大(Manzo 1970)。可读性公式的开发者也谨慎地提出,由于测试手段等原因,可读性公式并不是完全精确的(Fry 1975)。因此,在这一时期,早期可读性公式研究虽然受到来自各方面的质疑,但这实质上促进了理论性思考。公式的开发也因之取得了新进展。

3.1 主要研究成果

由于此前出现的大量可读性公式一定程度上解决了实际应用的需求,进入70年代后开发新公式的研究虽然仍在继续,但并不是主流,可读性研究的理论基础、理论依据成为研究热点。主要表现在两个方面:

首先,从理论角度对可读性公式研究范式进行思考的成果增多。主要表现在对已有变量、统计方法以及可读性公式适用性方面的反思。变量选取上,由于认知心理学强调阅读者与文本的互动、强调文本特征给阅读者带来的认知负担是造成阅读困难的主要原因,研究者认为文本表层特征(superficial text feature)不足以衡量阅读材料的难易度,而文本连贯性(coherence)、文本的命题密度(proposition density)、介词密度、文本结构、文本中指称的数量等文本深层因素也应被纳入到可读性公式研究中(Kintsch & van Dijk 1978;Miller & Kintsch 1980等)。有研究者将阅读者的个体特征纳入考察范围,尝试将背景知识水平、阅读兴趣等变量进行量化(Klare 1984;Anderson & Davison 1986)。此外,在二语习得理论与实证研究发展的基础上,研究者还提出了建立二语可读性公式的必要性。例如,Brown(1998)以2298名学习英语的日本大学生为被试,通过完形填空测试发现,二语阅读异于一语,虽然英语母语的可读性公式之间经检验相关性很强,但检验二语文本难度时差异较大,这说明一语公式不适用于二语。

其次,新的可读性公式得以开发。一部分公式是基于理论的新尝试,特别是加入认知指标或读者特征因素的可读性公式,如Kemper(1983)从衡量文本的“推理负担”(inference load)角度出发,按照行为、物理状态与心理状态三大类六个指标对文本中的命题进行了统计,并建立了包含4个变量的公式。这一研究是以认知理论为指导的一项突破。另一部分是自动化应用性公式的开发:除实现Flesch公式等的office嵌入应用外,这一阶段基于传统研究范式的蓝思分级公式注和蓝思分级系统(Lexile Level)(Smith 1989)开发成功并实现电脑自动运行,成为可读性公式大规模应用的一个范例(Dubay 2004;王鸿滨2016等)。研究者们还参照传统研究范式研制出了针对不同母语者的英语二语可读性公式,如针对波多黎各、日本、非洲英语二语学习者的公式等(如Blau 1982;Greenfield 1999等)。但无论在数量上还是影响力上都远远不及英语一语可读性公式(Brown 1998)。

3.2 本阶段研究特点

首先,实现了由应用指向到理论思考的转变。这一时期改变了第一阶段只重视应用、不涉及理论探讨的倾向。研究者们结合阅读心理学、二语习得等方面的基础理论重新反思了以往的研究范式,同时结合心理学的研究方法,通过实证研究进行了大量论证。特别是前述Kintsch、van Dijk、Anderson等研究者的系列研究为未来大规模选取变量、增加可读性公式信度提供了理论依据,更好地避免了可读性公式研究的随意性和主观性。如果说前一个时期的主要成就是形成了一致的研究规范,那么这一时期最重要的是引入了理论规范,在理论前提与假设基础上进行公式的开发研究并对所得公式进行理论解释成为趋势,这也为未来的研究开阔了思路。

其次,二语可读性公式研究开始引起关注。虽然有研究者认为,如果学生熟悉主要的词汇和句法、语素,阅读二语和母语应该是相同的,二语可读性公式的研究必要性不大(Schulz 1981),但这种观点很快被理论推断和实证研究所否定(如Clarke 1980;Brown 1998等)。学界对这一问题的讨论也促进了新的二语可读性公式的研发。

此外,新公式表现出自动化水平高、研究规模扩大的趋势。自动化计算一直是可读性公式应用时追求的目标,虽然20世纪60年代末研究者就开始尝试设计计算机程序进行自动化计算,但在音节等指标的计数方面仍有一定误差(Kincaid et al. 1975),70年代中期开始,研究者观察到电脑的“光电扫描设备”(optical scanning device)能够实现英文字母数量的精确计算,从而使用这一字母数代替音节数并创立新公式(Coleman & Liau 1975)。70年代末之后,计算机辅助在可读性公式研究和应用方面发挥了巨大作用,相关研究规模进一步扩大,例如蓝思分级系统研制时被试人数达3000人,测试文本多达400个(Smith 1989),这在充分利用计算机辅助手段的基础上,增加了可读性公式的信度。这一代表性研究的出现及广泛应用也预示着运用大规模数据、计算机辅助和自动化计算成为趋势。

四.多学科交融发展阶段(20世纪90年代末至今)

20世纪90年代以后计算机技术广泛应用,自然语言信息处理进入研究与应用的繁荣期,基于大规模语料库的数据挖掘及机器学习算法在更多学科的学术研究中得到应用。此外,心理学研究更为深入、研究范式更为成熟,新的研究手段也被应用到研究中,这对可读性公式的研究都产生了巨大的影响。计算机辅助、大规模数据为基础的可读性公式研究在这一阶段迅速增加,公式的表现形式开始“模型化”“非线性化”,理论探讨方面也更为深入,可以说进入到理论指导下的全面发展时期。

4.1 主要研究成果

第一,对可读性公式研究范式方面的探讨继续深入。在文本指标上,研究者一方面深化对传统的语义难度、句法复杂度两大指标的衡量,例如,不直接使用词频,而是倾向于使用更为稳定、避免统计误差的词频对数作为预测变量(Sung et al. 2015a);一方面增加句子节点、代词数量、虚词数量、语义范畴数量、互指性(英语中常以论元复现次数、词干复现次数衡量)等新变量,同时特别强调文本指标所体现的深层认知加工过程(Graesser et al. 2011;Benjamin 2012;Crossley et al. 2019等);在计算方法上,开始引入机器学习领域的相关算法,通常采用随机森林算法(random forest regression)、贝叶斯分类器(Bayers classifier)、支持向量机(support vector machine, 简称SVM)、判别分析法(discriminate analysis, 简称DA)等机器学习方法进行模型搭建(Heilman et al. 2007;François & Miltsakak 2012;Sung et al. 2015b;Chen 2016等),并通过交叉验证(cross-validation)评估模型的的预测性能,一定程度上解决了公式信度检验的问题(Crossley et al. 2008等)。研究者还对这些新方法的关键技术和分析思路的异同进行了对比和归纳,为新方法的进一步选择和应用提供了参考(如吴思远等 2018)。

第二,出现了一批可在线使用或自动化的可读性公式。随着语料库建设与研究的深入,相应的分析工具随之产生。在自动词汇复杂度分析器(Automatic Analysis of Lexical Sophistication)、语言连贯性分析器(Automatic Analysis of Cohesion)等语言分析工具不断进步的同时(Crossley et al. 2017),功能强大的综合性语言处理程序也被开发出来。Coh-Metrix系统的出现为英语可读性公式研究提供了更多的便利条件。该系统可对英语文本的句型密度、词汇多样性、指称衔接、情境模式等11个部分共106个文本指标进行自动化计算(Graesser et al. 2011)。研究者据此开发了基于8个维度43个指标的Text Evaluator在线难度评价系统(Sheehan et al. 2014)。除此之外,以英语为代表的自动化可读性公式发展迅速,出现了基于大规模语料库以词汇成熟度(word maturity)注为主要衡量指标的Reading Maturity Metric、基于传统研究范式的ATOS(School Renaissance 2000)、可根据主题进行分类并给出难度等级及分数的Read-x网页可读性分析工具(Miltsakaki & Troutt 2007)。这些“可读性公式”实际已不再是线性公式的表现形式,而是模型或一系列的电脑命令,以便于进行自动化计算。

4.2 本阶段研究特点

这一阶段是成果丰富、全面发展的阶段。不但在研究方面有新的突破,实用性上也有巨大进步。总体来说,发展特点表现在:

首先,可读性公式研究表现出多学科交融的特色。虽然可读性公式研究始终处于心理学、语言学等多学科发展的大背景中,但90年代末期以来多学科交融发展的特点更为突出,主要表现在:单个研究中多学科研究方法并存;研究者队伍扩大,从语言教学界扩展到心理学、语言信息处理、人工智能等多个领域的专家;与可读性公式相关的研究成果也因此出现在上述领域的多种学术刊物。这些领域的研究方法、理论基础也不断为语言教学领域的可读性公式研究所吸收。研究者甚至明确提出,仅局限于语言学、语言教学领域的可读性公式可能是不可靠的(Bailin & Grafstein 2001)。

其次,可读性公式的基础性研究和应用性研究分界更为清晰。一方面研究者致力于从可读性公式研究的各个角度提升研究本身的科学性和可靠性,如比较并发现更为精确的算法(如Sung et al. 2015a)、不同数据规模带来的结果是否一致(如Crossley & Mcnamara 2008)、最大限度地发现并量化阅读理解难度的文本指标(Graesser et al. 2011)等;另一方面研究者更侧重发展结果稳定、信效度高、变量易于量化、自动化水平高的应用性成果。这也使得基于传统方法的研究仍然和利用机器学习算法的研究并存。但由于实际操作的复杂性,可读性公式的研究成果转化为应用成果也更加复杂,如研究者不公开提供自动化计算工具,使用者便完全无法使用;由于表现形式已不仅仅是线性公式、难度指标定义及量化过程复杂,数据清洗或模型参数调整的具体细节如不能介绍到位的话,公式较难被检验,后人的复制性研究比以往更加困难。这些问题都有待进一步解决。

另外,二语可读性公式研究发展迅速,但应用范围有限。特别是在英语二语领域,既有以语言大纲为参照的研究 (Chen 2016;Xia et al. 2016),也有 基 于 英语二语写 作 语 料 库 的 研 究 (Razon & Barnden 2015)。除英语之外,作为第二语言的法语、西班牙语、日语、汉语等语言都不断发展出各自的可读性公式。总体来看,研究的理论前提思路更为开阔,例如Razon & Barnden (2015)从语言输入和输出的角度考虑,认为学习者输出的文本相当于能够阅读的最低水平,因此将7-9年级英语二语者的作文语料库作为训练集及测试集,进行阅读文本的可读性自动分类研究。从研究方法来看,既有传统的研究方法(如左虹、朱勇 2014),又有结合机器学习的方法(如Sato et al. 2008);从变量选择上看也开始选取一语可读性公式中采用的认知指标等。总体来说,这些研究仍是以英语一语可读性公式研究为范本,根据各自的语言特征进行的探索性研究,真正成为标准或大规模使用的二语可读性公式尚不多见,仍处于追随一语研究的阶段。

五. 余论

本文在综合考虑可读性公式研究的主要成果基础上,将研究发展进程分为三个主要阶段并总结了各阶段的主要特点。可以认为,可读性公式研究发展经过了“应用指向→理论反思→理论指导下全面发展”的历程。当今多样化的研究方法实际也是传统研究范式的拓展和细化。任何方法都离不开以下要素:影响阅读理解难度的因素及量化方法、建立公式的参照标准(如完型填空测试成绩、人工难度评分等)以及科学的算法。从发展轨迹来看,可读性公式研究起源于英语,继而扩展到其他语言,再逐渐扩展到二语领域,三个领域的研究并不各自独立,而是互相借鉴、逐步深入。据此可以预测未来的研究可能有以下趋势:随着人们对专门化公式的需求不断增加,为不同群体、不同类别文本、不同目的阅读建立适用性更强的可读性公式仍然是现实的需要;随着理论探讨与实践验证的不断发展,会发现预测力更好的文本特征与算法,并可能进一步形成人工智能时代的经典研究范式;除传统的行为研究范式,利用在线(on-line)研究确定影响阅读理解的因素乃至预测文本难度,也可能是一个重要的发展方向(Atvars 2017)。

具体到汉语领域,可读性公式研究从20世纪70年代已经开始,截止到2020年针对汉语母语的公式已近30个(蔡建永2020),汉语二语的研究则可以认为是从张宁志(2000)开始的,此时可读性公式研究虽已进入多学科交融发展阶段,但在汉语二语研究界仍属于比较新的问题,这一研究为科学衡量汉语二语文本的难度提供了思路。此后近20年来,既出现了针对不同环境、不同学习者使用传统研究范式建立的公式(如左虹、朱勇2014;王蕾2017;Soh 2019),也诞生了针对繁体字或简体字且使用SVM算法建立的公式,并在一定程度上实现了自动计算(宋曜廷等 2013;Sung et al. 2015b;蔡建永2020等)。总体来看,影响汉语二语阅读难度的核心文本指标仍在探讨中,不同算法的比较性研究也有待开展。因此,至今也仍未有权威的、影响广泛的汉语二语可读性公式,汉语水平与文本难度相匹配的问题仍待解决(王鸿滨2016)。 因此,根据现有阶段的研究发展趋势、结合汉语文本特征、汉语二语阅读过程、学习者特点,开展跨学科合作,在以往研究基础上建立适用性更强、解释力更强的可读性公式是未来努力的方向。

作者简介

王 蕾,女,山东临沂人,博士,北京语言大学讲师,主要研究方向为汉语第二语言习得、汉语二语教学法。电子邮件:[email protected]

本文来源:《语言教学与研究》

点击文末 “阅读原文”可跳转下载

今日责编:建国

点击“阅读原文”可跳转下载返回搜狐,查看更多



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3