如何实现从非侵入性脑记录中重建自然语言?传统方法通常依赖预构建的语言候选集,通过分类任务匹配从脑记录中解码的语义表示。然而,这种方法在处理开放词汇和复杂语义时存在显著局限。
近期,一项名为 BrainLLM 的研究提出了一种创新方法,利用自回归生成模型直接从功能性磁共振成像(fMRI)数据生成自然语言,避免了对预构建候选集的依赖。相关成果《Generative language reconstruction from brain recordings》发表在发表在《Communications Biology》杂志上。
从脑记录中重建自然语言不仅有助于揭示人类大脑如何形成和处理语言,还为神经通信接口的开发提供了新的可能性。语言作为人类独特的认知能力,其生成与处理机制一直是神经科学的核心议题。近年来,随着脑成像技术和计算模型的进步,研究人员尝试从脑信号中解码语言信息。例如,Moses 等通过植入电极成功解码了50个目标词汇,而 Pereira 等利用 fMRI 从视觉刺激中重建句子。然而,这些传统方法多依赖分类任务,将脑解码与语言生成分为独立阶段,仅在事后选择阶段使用语义表示。这种方式无法生成超出预定义候选集的内容,限制了其灵活性。
尽管大型语言模型(LLM)在模仿人类语言方面取得了显著进展,但其生成结果依赖训练数据,无法保证与脑记录解码的语义一致。因此,如何将脑信号直接整合到语言生成过程,成为一个亟待解决的难题。BrainLLM 的提出正是针对这一挑战,试图通过创新方法实现从脑信号到自然语言的直接跨越。
BrainLLM 的核心在于将脑记录解码的语义表示与语言模型的生成能力相结合,突破传统方法的局限。
其工作流程包括以下四个关键步骤:
与传统分类方法不同,BrainLLM 直接将脑信号整合到语言生成阶段,消除了对预构建语言候选集的需求。这种设计充分利用了脑信号中的语义信息,并通过“提示调优”技术确保模型在有限神经数据上的有效训练,从而显著提升生成性能,为神经科学和机器学习研究提供了新的视角和应用场景。
研究团队在三个公开 fMRI 数据集——Pereira、Huth 和 Narratives 上评估了 BrainLLM 的性能,这些数据集涵盖视觉和听觉语言刺激。结果显示,BrainLLM 在生成与大脑感知内容一致的语言方面显著优于对照组 PerBrainLLM(随机输入脑信号的模型)。具体表现如下:
这些结果表明,BrainLLM 在生成符合感知内容的语言方面具有显著优势,尤其在处理视觉和听觉刺激时表现突出。
实验揭示了 BrainLLM 性能的几个关键影响因素:
BrainLLM 的成功为神经通信接口开发开辟了新可能性,尤其在开放词汇解码和个性化语言生成领域。未来,该方法可与基于运动表示的脑机接口等外部模块结合,进一步提升语言生成效果。此外,BrainLLM 还可作为研究工具,用于探索大脑语义信息的编码方式、不同人群对语言内容的期望差异,以及不同脑区与特定语言特征的关系。通过比较语言生成概率,研究人员还能深入了解语言的上下文效应及其神经基础。
参考文献: Ye, Z., Ai, Q., Liu, Y., de Rijke, M., Zhang, M., Lioma, C., & Ruotsalo, T. (2025). Generative language reconstruction from brain recordings. Communications Biology, 8:346. https://doi.org/10.1038/s42003-025-07731-7
数据集与代码: https://zenodo.org/records/14838723
本文为BioAI实验盒对论文的学术分析、阐释及个人观点的呈现。原论文的版权归属于原作者,并遵循其版权协议。本文的解读部分内容由BioAI实验盒撰写,如需转载,请提前通过私信联系。