大脑就像一个精妙的预测机器,时刻在对周围的世界进行着预测。它会根据以往的经验和信息,提前预判接下来可能发生的事情。比如,当我们准备伸手去拿一个杯子时,大脑早已在潜意识里预测了杯子的位置、形状和重量等。然而,现实情况往往并非完全如预测般精准,这时大脑会迅速进行修正。它会通过不断接收来自感官的新信息,与之前的预测进行对比,找出差异并及时调整。这种持续的预测与修正过程,让我们能够更好地适应复杂多变的环境,做出更准确的行动和决策。
“相关并不意味着因果”——这句老生常谈在科学研究中常被提起,却也常被忽视。
当以ChatGPT为代表的许多大语言模型,能够实现相对准确地预测大脑对语言任务的反应时,是否可以认为大语言模型捕捉到了大脑语言认知加工的一些深层机制?换言之,大脑也采用类似大语言模型的预测编码机制——不断预测并修正错误?
这种推论是否经得起科学的检验?GPT的预测与人脑语言反应的高度相关,究竟是“认知本质”,还是只是“统计上的巧合”?
一、预测编码理论
在20世纪,我们认为大脑从感官中提取知识。21世纪则见证了一场“奇怪的反转”,大脑被视为一个推理的器官,会主动地为外部世界发生的事情构建解释[1]。在这场转变中,预测编码(Predictive coding)理论扮演了重要角色。
20世纪90年代,心理学家Karl Friston提出了预测编码理论,提供了一个关于大脑如何加工的高层次描述。该理论认为,大脑在未来事件发生之前就在不断地尝试对其进行预测,然后将预测与观测进行比较,当预测与实际的感官输入不匹配时,大脑会对预测进行调整与更新以减少这种预测误差(prediction error)。作为一种认知理论,预测编码理论为大脑信息加工提供了一种概念简洁、机制合理的具体目标,获得了许多研究者的青睐。
▷简化的感觉预测模型。蓝色箭头指示如何更新预测神经元,并传递到较低的层次结构级别。红色箭头指示如何生成预测误差并将其进给到更高的层次结构级别。图源:doi:10.3389/fpsyt.2020.557932.
预测编码理论相关研究最早可追溯到视觉加工领域。20世纪末,Rao和Ballard提出了一种视觉加工的预测编码模型:高级视觉区域会对低级视觉区域的活动进行预测,低级视觉区域则反过来向高级视觉区域传递预测误差,即未能被预测的“新奇”信息[2]。通过模拟分析,他们发现这种简单的层级架构不仅与神经解剖学和生理学证据一致,还能解释一些复杂的反应[1]。
不仅仅是视觉加工,预测编码也为感知、注意、学习、运动控制等认知功能提供了一种统一的框架。以语言加工为例,预测编码理论认为,在感知到自然语言的刺激时,大脑会先发制人地对于未来会出现的词语和句子进行预测。预测编码理论得到了多方证据支持,一方面,许多研究发现了与句法或语法不一致词句有关的电生理信号;另一方面,体现预测编码理论的神经网络语言模型(Neural Network Language Models,NNLM)能有效地解释由自然语言引发的大脑活动。
为什么使用NNLM能如此有效地预测大脑对于自然语言的反应?一种颇具吸引力的观点认为,语言模型和大脑是相似的,它们在语言认知加工方面具有相同的目标,即对未来即将出现的词句进行预测。近期,来自德克萨斯大学奥斯汀分校的Antonello和Huth在Neurobiology of Language发文,对此观点提出了质疑[3]。
二、神经网络语言模型
单向的NNLM是一种用于单词预测任务的人工神经网络,能够基于语料库,根据上文信息生成下一个单词的概率分布。例如,上文是“they say his father was a f____”,对于f开头的单词,NNLM会预测一系列候选词出现的概率,对更有可能出现的词语(如fisherman)赋予更高的概率[4]。与翻译、问答等需要标注数据的任务相比,NNLM的突出优势在于可使用几乎所有自然语言文本进行训练,拥有学习许多不同类文本统计规律的能力。
▷实验和分析框架的示意图。(a)(顶部)在两个实验中,参与者在记录大脑活动时都聆听了有声读物的连续录音。(底部)参与者听取的文本由深度神经网络(GPT-2)分析,以量化每个单词的上下文概率。使用基于回归的技术来估计(不同级别)语言意外性对连续记录中诱发响应的影响。(b)分析的数据集:一个组级的脑电图数据集和一个单独的主题源源定位的MEG数据集。图源:[4]
近些年来,NNLM也催生了一类范式:语言模型微调(language model fine-tuning)。从已有NNLM中提取出的表征可重新用于其他的语言任务,如识别命名实体、情感分析等。研究者发现,根据NNLMs微调得到的模型,往往比根据特定任务从头开始训练得到的模型表现更优,微调后的模型允许使用原始的NNLM学习到的语言特征,有助于弥补许多语言任务训练数据的成本问题(即手工标注数据昂贵且有限)[5]。
▷图源:https://www.ruder.io/
目前,最先进的NNLM通常包含一系列结构相同的加工模块(即transformers),其机制是点积注意力(dot product attention),有选择性地加工输入中的一部分元素。每个transformer的输出被称为隐藏态(hidden state),是对输入的编码表征。NNLM的输入通常是词嵌入(word embeddings),通过transformer最终转化为对下一个单词的预测。在评价NNLM的表现时,研究者常使用困惑度(perplexity)这个指标,困惑度越低,意味着模型给实际的下一个单词赋予了越高的概率。
三、神经科学研究中的NNLM
NNLM能够应对许多不同类型的语言任务,因此神经科学家也使用NNLM来预测大脑对于自然语言的反应。研究者建立了使用从语言刺激中导出的特征来预测大脑对自然语言反应的回归模型,称之为编码模型(encoding model)。与使用源于非情景化词嵌入空间的表征相比,使用NNLM生成的表征的编码模型表现更好,这样的编码模型也被称为基于语言模型的编码模型(LM-based encoding model)。
为什么引入语言模型有助于提升编码模型在预测大脑反应时的表现?一种流行的假设认为,基于语言模型的编码模型与大脑有相同的目标——对还未出现的单词进行预测。
例如,Schrimpf等人(2021)基于语言理解任务的三大神经数据集*,考察了多种NNLM的表现。结果表明,在预测大脑对于语句的神经反应时,最优的模型能对几乎100%的可解释方差进行预测。此外,他们还发现,模型对于神经数据、行为数据(即阅读时间)的拟合结果与模型在单词预测任务中的准确性之间存在强相关。这进一步表明,单词预测可能是语言认知加工的基础部分[6]。
注:这些数据集包含三组神经数据。(1)逐句呈现条件下阅读话题多样的短篇文字时的fMRI数据(Pereira,2018);(2)逐词呈现条件下阅读语法句法各异的句子时的ECoG数据(Fedorenko,2016);(3)听时长约5min的故事时的fMRI血氧信号时序数据(Blank,2014)。
Goldstein等人(2021)进一步发现,即使去除了简单的语境和语义信息(如词义),也能根据在词语出现之前的大脑反应,显著地预测出NNLM对未来词语的表征[7]。类似地,Caucheteux等人(2021)发现,与只使用当前语境的信息相比,增加未来词语的嵌入有助于提升基于语言模型的编码模型的表现[8]。
这些研究结果都试图表明,拥有更好的词语预测能力的模型也具备更强的编码能力。我们能否就因此得出“大脑在语言加工时进行了预测式编码”的肯定结论呢?
四、不同于预测编码的替代解释
如果大脑可以对某个特征进行编码,那么,在其它因素相同的情况下,能和大脑一样对同样特征进行编码的模型将比其他模型表现更好。根据这一逻辑,过往研究反推,既然拥有词语预测能力的模型比其他模型在解释大脑活动方面表现更优,那么大脑也同样会对未来的词语进行预测。
但是,Antonello和Huth对于这一逆命题保持怀疑态度。他们还指出,现有的研究证据都是相关性数据,无法以此得出“因为进行了预测编码,所以在预测词语时表现更好”这样的因果性推论。
为此,他们展开了一项基于fMRI数据集使用NNLM的分析研究,并提出了一种不同于预测编码理论的解释——表征普遍性(representational generality)。他们认为,基于语言模型的编码模型捕捉到了某些普遍信息,因此在预测语言任务中的大脑反应时表现良好。
研究中使用的数据集包含5名健康被试在听英语博客故事时的fMRI数据(含训练集与测试集)。在预处理后根据训练集数据生成了97种不同的体素级大脑编码模型*,使用岭回归方法预测在测试集中大脑的血氧反应,所有被试的平均表现作为编码模型的表现指标。对于词语预测任务,该研究根据编码模型的表征与下一个词语的GloVe嵌入进行了线性回归,计算了此回归模型对下一个词语概率分布的预测与实际分布之间的交叉熵,并以此作为编码模型在词语预测任务中的表现指标(即困惑度)。
注:该研究从多种自然语言处理模型中提取了97种语言表征。具体来说,包括3种词嵌入空间(GloVe、BERT-E和FLAIR)、3种单向语言模型(GPT-2 Small、GPT-2 Medium和Transformer-XL)、2种掩码双向语言模型(BERT和ALBERT)、4种常见的可解释的语言标注任务(命名实体识别、词性标注、句子分块和框架语义解析)以及2种机器翻译模型(英中和英德)。
首先,与过往研究一致,该研究也发现了模型的编码表现与对下一个词语的预测表现之间存在高相关(相关系数r=0.847)。然而,高相关可能与模型表征包含的信息能够普遍适用于多种语言任务(包括词语预测)有关。
因此,研究进一步分析了每种模型表征对其他96种表征的预测能力,预测能力越强意味着表征包含的普遍性信息越多。结果表明,表征的普遍性与编码表现之间也存在高相关(相关系数r=0.864)。换言之,编码表现越好的模型其表征普遍性也越高。
最后,研究还探究了每种模型表征对于英德翻译模型表征的预测能力,依然得到了高相关(相关系数r=0.780)。该结果进一步说明,面向多种语言任务的迁移能力,而非预测能力,才是语言模型表现优异的核心原因。
此外,研究还针对GPT-2 Small和GPT-2 Medium两个模型进行了分析。这些NNLM模型在处理文本信息时,会将词语从模型的第一层开始输入并穿越众多中间层,在最后一层进行下一个词的预测。假如预测编码理论成立,那么就应该观察到随着模型深度加深,编码与预测表现都应有明显提升。
考虑位于不同深度的表征的编码与预测表现,研究发现语言模型的编码表现在模型深度的60%到80%之间达到了峰值,然后在更深入的后期层次中陡然下降;同时,模型对于下一个词语的预测能力,并未随着到达最后一层而较中间层有显著提升。总的来看,这些结果都未能为预测编码理论提供支持。
▷GPT-2小型、中型编码模型随层深变化的编码表现。图源:[3]
五、结语
自ChatGPT以来,语言模型已经进入了千家万户。对于研究者而言,人工造物能展现出与大脑类似或相同的表现自然是令人欣喜的,但因此推断人类的大脑也以语言模型的方式加工信息究竟是否合适?Antonello和Huth的这项研究为我们提供了另一可能的解释:表征普遍性可能才是语言模型表现良好的关键之处。NNLM以广泛的自然语言文本作为训练集,基于此的编码模型可能抓住了人类语言中的某些普遍性信息,因而拥有强大的能力以应对各类语言任务(不仅限于词语预测)。
Antonello和Huth认为作为一种科学理论,预测编码理论只是被解释为“大脑以预测作为语言加工的目标”显得太过模糊,缺乏明确的定义和可证伪的表述。
但他们也没有否定预测编码理论。作为一项认知理论,预测编码理论能够解释许多现象,只不过在判断研究证据是否能为预测编码理论提供支持方面,研究者理应更为谨慎些。很多被认为支持预测编码的证据,即使在没有预测编码的情况下也可能是正确的,本研究提出的表征普遍性便可以用来解释这些证据。
未来的研究应该寻找能够明确区分大脑是否进行预测编码的独特可测量现象。例如,发现一些自然存在的、以预测编码作为语言学习目标的低级神经环路,或将成为强有力的证据。
参考文献:
[1]Friston,K.(2018).Does predictive coding have a future?Nature Neuroscience,21(8),1019–1021.https://doi.org/10.1038/s41593-018-0200-7
[2]Rao,R.P.N.,&Ballard,D.H.(1999).Predictive coding in the visual cortex:A functional interpretation of some extra-classical receptive-field effects.Nature Neuroscience,2(1),79–87.https://doi.org/10.1038/4580
[3]Antonello,R.,&Huth,A.(2024).Predictive Coding or Just Feature Discovery?An Alternative Account of Why Language Models Fit Brain Data.Neurobiology of Language,5(1),64–79.https://doi.org/10.1162/nol_a_00087
[4]Heilbron,M.,Armeni,K.,Schoffelen,J.-M.,Hagoort,P.,&de Lange,F.P.(2022).A hierarchy of linguistic predictions during natural language comprehension.Proceedings of the National Academy of Sciences,119(32),e2201968119.https://doi.org/10.1073/pnas.2201968119
[5]Dodge,J.,Ilharco,G.,Schwartz,R.,Farhadi,A.,Hajishirzi,H.,&Smith,N.(2020).Fine-Tuning Pretrained Language Models:Weight Initializations,Data Orders,and Early Stopping(arXiv:2002.06305).arXiv.https://doi.org/10.48550/arXiv.2002.06305
[6]Schrimpf,M.,Blank,I.A.,Tuckute,G.,Kauf,C.,Hosseini,E.A.,Kanwisher,N.,Tenenbaum,J.B.,&Fedorenko,E.(2021).The neural architecture of language:Integrative modeling converges on predictive processing.Proceedings of the National Academy of Sciences,118(45),e2105646118.https://doi.org/10.1073/pnas.2105646118
[7]Goldstein,A.,Zada,Z.,Buchnik,E.,Schain,M.,Price,A.,Aubrey,B.,Nastase,S.A.,Feder,A.,Emanuel,D.,Cohen,A.,Jansen,A.,Gazula,H.,Choe,G.,Rao,A.,Kim,S.C.,Casto,C.,Fanda,L.,Doyle,W.,Friedman,D.,…Hasson,U.(2021).Thinking ahead:Spontaneous prediction in context as a keystone of language in humans and machines.BioRxiv.https://doi.org/10.1101/2020.12.02.403477
[8]Caucheteux,C.,Gramfort,A.,&King,J.-R.(2021).Long-range and hierarchical language predictions in brains and algorithms(arXiv:2111.14232).arXiv.https://doi.org/10.48550/arXiv.2111.14232
上一篇:永辉超市连亏四年超95亿元
下一篇:为什么日本创新力不如韩国?