脑电大模型研究进展综述

何中阳 ,  高源龙 ,  曾颖 ,  王林元 ,  裴常福 ,  闫镔

信息工程大学学报 ›› 2025, Vol. 26 ›› Issue (06) : 674 -682.

PDF (1547KB)
信息工程大学学报 ›› 2025, Vol. 26 ›› Issue (06) : 674 -682. DOI: 10.3969/j.issn.1671-0673.2025.06.007
计算机科学与技术

脑电大模型研究进展综述

作者信息 +

A Review of Research Progress on Electroencephalogram Large Models

Author information +
文章历史 +
PDF (1583K)

摘要

脑电大模型凭借其卓越的表征学习能力,已成为脑电领域的重要研究方向。为系统梳理该领域研究进展,首先,从核心理论与关键技术出发,深入剖析脑电大模型的理论根基与设计原理;其次,围绕模型概念、架构设计、特征提取、学习范式与模型规模等维度,对主流脑电大模型的研究现状与技术特点进行全面对比介绍,并重点对模型使用数据库和下游任务中的二分类性能表现进行对比分析;最后,结合研究现状展望脑电大模型未来发展方向。通过构建脑电大模型知识框架,旨在为后续研究提供参考,推动该领域的深入发展。

Abstract

Electroencephalogram (EEG) large models have emerged as a significant research direction in EEG analysis due to their exceptional representation learning capabilities. To systematically review progress in this field, the core theories and key technologies underlying these models are first analyzed, examining their theoretical foundations and design principles. Subsequently, a comprehensive comparison of mainstream EEG large models is conducted across dimensions including model concepts, architectural designs, feature extraction methods, learning paradigms, and model scales. A particular emphasis is placed on comparing and analyzing the binary classification performance of the datasets and downstream tasks used by these models. Finally, based on the analytical results, future development directions for EEG large models are discussed. A knowledge framework of EEG large models is established to serve as a reference for subsequent research and promote in-depth development in the field.

Graphical abstract

关键词

脑电图 / Transformer架构 / 自监督学习 / 脑电大模型

Key words

EEG / Transformer / self-supervised learning / EEG large models

引用本文

引用格式 ▾
何中阳,高源龙,曾颖,王林元,裴常福,闫镔. 脑电大模型研究进展综述[J]. 信息工程大学学报, 2025, 26(06): 674-682 DOI:10.3969/j.issn.1671-0673.2025.06.007

登录浏览全文

4963

注册一个新账户 忘记密码

脑电图(Electroencephalogram, EEG)作为最早被发明的脑神经成像技术,通过头皮表面电极阵列记录神经元群电活动产生的时变生物电信号,能够反映脑部神经功能活动,已成为神经科学领域最具标志性的无创监测技术之一[1]。脑电图由于安全无创和时间分辨率高等优点,已被广泛用于基础神经科学研究、人机交互(Brain-Computer Interface, BCI)系统开发、健康监测及临床诊断等众多领域[2-3]。早期的脑电图解码和各种下游任务的研究主要采用传统的机器学习方法。随着深度学习的快速发展,各类深度神经网络被开发出来,用于解码EEG信号和执行下游BCI任务[4-5]。这些深度学习模型大多依赖于采用面向特定任务或数据集而量身定制的监督学习方法。然而,由于EEG信号的采集和标注成本高、耗时长,数据量通常有限,并且不同数据集的EEG信号格式在通道配置和时间长度等方面存在显著差异,现有深度学习模型在提高泛化能力和识别性能方面仍存在重大挑战。
2017年,Transformer架构的诞生为突破上述瓶颈提供了关键技术路径,其独特的自注意力(Self-Attention)机制极大地提升了模型对序列数据的处理能力,在捕捉长距离依赖关系方面表现尤为出色[6]。相比传统的卷积神经网络(Convolutional Neural Network, CNN)[7]和循环神经网络(Recurrent Neural Network, RNN)[8],Transformer具有更好的并行计算能力和更高的训练效率,因此在大规模数据处理和表示学习方面展现出显著优势,在自然语言处理领域已展现出卓越的长程依赖捕捉能力。2023年,Song等[9]首次将纯Transformer架构应用于EEG情绪识别,验证了该架构在处理非平稳生物电信号时的独特优势。更值得关注的是,人工智能大模型技术的兴起为EEG分析带来了范式转变:通过构建参数量超十亿级、具备多任务迁移能力的预训练模型,可实现从海量异构数据中学习通用神经表征,进而通过微调适配特定下游任务。这种“预训练—微调”范式显著降低了对标注数据的依赖,为解决EEG领域的小样本学习难题提供了全新解决方案。
2024年,基于Transformer架构,文献[10]提出脑电大模型LaBraM(Large Brain Model),该模型能够高效捕捉脑电信号的时空特征,进而生成富含语义的神经编码,实现通用表征学习,并在异常检测、事件分类、情绪识别以及步态预测等多个下游任务上,展现出超越现有最优深度学习模型的卓越性能。脑电大模型本质上是一种经过预训练的深度神经网络模型,可以把它比作坚固的基座,充当着各类下游任务的骨干网络。通常情况下,脑电大模型会在规模庞大且具有高度多样性的数据集上开展训练工作,以此来精准捕捉通用的脑电特征。其最为显著的优势体现在强大的表示学习能力上,能够在不同的任务场景之间实现出色的泛化,展现出良好适应性和通用性。经过一年多发展,EEGFormer[11]、EEGPT(EEG Pretrained Transformer)[12-13]、Brant-X(Brain Neural Transformer)[14]、FoME(Foundation Model for EEG)[15]、EEG-GPT[16]、NeuroLM(Neurological Language Model)[17]等多个以Transformer框架为核心架构的脑电大模型相继出现,不仅在算法层面突破了传统模型的性能天花板,更在应用层面为实时脑状态监测、神经疾病筛查等场景提供了技术可行性。
在此背景下,本文系统梳理了脑电大模型的基本框架,深入探讨脑电大模型当前主流模型技术特点,总结分析了脑电大模型发展方向,旨在为后续研究者全面展示脑电大模型研究的现状。

1 脑电大模型的基本架构和关键技术

1.1 脑电大模型的基本架构

脑电大模型涉及到的关键技术主要有模型结构的设计、预训练学习算法的运用以及微调操作。图1清晰展示了脑电大模型的基本框架和训练流程,描绘出其在实际中的应用过程。作为特征学习的核心所在,脑电大模型具备很强的灵活性,一般可以通过微调策略或者借助适配器技术,巧妙地适配不同的领域或者下游任务,从而更好地发挥其效能。

1.2 脑电大模型基础理论

当前,主流的脑电大模型架构绝大多数以Transformer框架为核心,其通过模块化设计实现了对序列数据的高效建模。Transformer本质上是由注意力模块和全连接前馈模块构成的堆叠式网络结构,通过残差连接与层正则化实现稳定训练[6]。其中,注意力模块由注意力层、残差连接和层正则化组成。全连接前馈模块由全连接前馈层、残差连接和层正则化组成。两个模块的结构示意图如图2所示。

注意力层采用加权平均的思想将前文信息叠加到当前状态上,该模块特别适用于处理脑电信号中跨通道、跨频段的非线性耦合关系。Transformer的注意力层将输入编码为 qk 以及 v 这3个部分,例如q1,k1,v1,q2,k2,v2,,qt,kt,vt,其中 qk 用于计算自注意力的权重αv 是对输入的编码,具体如下所示:

Attentionxt=i=1tαt,ivi
αt,i=SoftmaxSimxt,xi=Simqt,kii=1tSimqt,ki

式中:xt代表当前时刻/位置的输入向量;xi代表序列中第i个位置/时刻的输入向量;Sim()用于度量两个输入之间的相关程度;Softmax函数用于对此相关程度进行归一化。此外:

qi=Wqxi;ki=Wkxi;vi=Wvxi.

式中,WqWkWv分别为 qkv 编码器的参数。

全连接前馈层占据了Transformer近2/3的参数,可以看作是一种Key-Value模式的记忆存储管理模块[7]。全连接前馈层包含两层,两层之间由ReLU作为激活函数。设全连接前馈层的输入为v,全连接前馈层可表示为

FFNv=Max0,W1v+b1W2+b2

式中:W1W2分别为第1层和第2层的权重参数;b1b2分别为第1层和第2层的偏置参数。其中:第1层可看作神经记忆中的 k;而第2层可看作 v

层正则化能够加速神经网络训练过程并获得更好的泛化性能。设输入到层正则化层的向量为v=vii=1n。层正则化层将在v的每一维度vi上都进行层正则化操作。具体地,层正则化操作可以表示为

LNvi=αδvi-μ+β

式中:αβ为可学习参数;μδ分别为隐藏状态的均值和方差。μδ可由下列公式计算:

μ=1ni=1nvi;                 δ=1ni=1nvi-μ2.

原始的Transformer采用编码器(Encoder)—解码器(Decoder)架构,其包含编码器和解码器两部分。这两部分都是由注意力模块和全连接前馈模块重复连接构建而成,同时引入残差连接,有效解决了梯度消失问题,其整体结构如图3所示。其中:编码器部分由若干级联的编码器层组成,每个编码器层包含1个注意力模块和1个全连接前馈模块;解码器部分由若干级联的解码器层组成,每个解码器层包含两个注意力模块和1个全连接前馈模块。

1.3 脑电预训练与微调

预训练技术已成为现代脑电大模型的核心构建范式,其主要通过自监督学习(Self-Supervised Learning)机制实现了从海量无标注数据中提取通用神经表征的目标。该技术体系突破了传统监督学习对标注数据的强依赖性[18],为解决脑电信号标注成本高、个体差异性大等瓶颈问题提供了创新解决方案。

1.3.1 自监督预训练范式

自监督学习通过设计前置任务(Pretext Task)引导模型自主学习数据内在结构,针对脑电信号特点,设计两类自监督任务。

1)掩码建模(Masked Modeling)。该范式通过随机遮蔽输入信号的部分片段,训练模型重建被遮蔽内容。典型实现包括如下。时域掩码:随机遮蔽连续时间段内的脑电信号,要求模型预测缺失片段的时频特征。通道掩码:屏蔽特定电极通道数据,迫使模型学习跨通道的空间相关性。频带掩码:去除特定频段(如α波、β波)能量信息,增强模型对频谱特征的敏感性。

2)自回归建模(Autoregressive Modeling)。通过预测序列的下一时间步实现时序依赖捕捉,典型形式为因果预测。仅利用历史信息来预测当前或下一时刻的信号,适用于运动想象等对实时性和因果性要求较高的任务。

预训练过程包含3个关键阶段。数据构建:整合多源异构脑电数据集,涵盖不同被试、任务范式和采集设备。表征学习:通过Transformer编码器提取多尺度时空特征,建立从电极空间到隐含空间的非线性映射。特征解耦:在隐空间中将神经活动模式分解为与认知状态、运动意图、病理特征相关的独立分量。

1.3.2 微调适配策略

预训练模型向下游任务的迁移通过3种微调范式实现。

1)全参数微调(Full Fine-Tuning)。完全解冻预训练权重,针对特定任务数据集进行端到端优化。适用于数据量充足(>104样本)的场景,如公开数据集上的运动想象分类。

2)参数高效微调(Parameter-Efficient Fine-Tuning)。适配器(Adapter):在预训练层间插入小型瓶颈模块(参数量<1%主干网络),仅训练新增参数。前缀调优(Prefix Tuning):在输入序列前添加可学习虚拟Token,通过注意力机制影响特征编码。低秩适配(Low-Rank Adaptation, LoRA):将权重更新矩阵分解为低秩分解形式,减少可训练参数量。

3)零样本迁移(Zero-Shot Transfer)。利用预训练模型的通用表征能力直接执行下游任务,典型应用包括如下。跨被试迁移:在未见被试数据上实现50%~70%的基准性能。跨任务迁移:利用语言模型式的提示学习(Prompt Tuning)适配新任务。

1.4 Transformer架构与脑电信号深度适配

Transformer 能成为“脑电大模型”的主流骨架,并非简单的“迁移热”,而是由EEG信号本质、模型架构特性和大规模预训练需求等3个方面共同决定的。

1)可以天然捕获“长程依赖”。脑电节律跨几百毫秒到数十秒,传统CNN/RNN需层层堆叠才能扩大感受野,而Transformer的多头自注意力可直接在任意两时间点间建立关联,对运动想象、癫痫先兆等“远端前后呼应”模式尤其有效。

2)可以实现“通道—时间”双维并行。自注意力机制把每个通道的每个时间点当成一个Token,所有Token并行计算,避免了RNN的时序瓶颈;对500~1 000 Hz采样的大规模EEG数据可实现GPU级并行加速。

3)可以实现“空间—时间—频率”三域特征一次融合。通过把二维“时—频”图或三维“时—空—频”Patch拉直成Token序列,同一套注意力矩阵即可同时学习“哪一通道—哪一频带—哪一时刻”最相关,显著降低特征工程工作量。

4)适配任意通道数、任意时长数据。EEG采集设备通道数从8~1 024不等,传统CNN需固定尺寸。Transformer只依赖Token序列长度,把每段信号切成固定长度Patch后,可兼容不同导联、不同时长,真正做到了“一个模型吃所有数据”。

2 脑电大模型研究现状

脑电大模型的架构设计作为其核心要素,目前主要借助多种深度学习架构来提取脑电信号的时间与空间特征。常见的架构包括卷积神经网络(CNN)、循环神经网络(RNN)、图神经网络(Graph Neural Network, GNN)以及Transformer等。这些架构各有千秋:CNN善于捕捉局部空间特征,RNN适合对时间依赖性进行建模,GNN能够处理脑电信号的图结构信息,而Transformer则可通过自注意力机制同时捕捉长程依赖关系和多维度特征。

依据实现路径的差异,现有主流脑电大模型大致可分为两类:基于“无标签数据预训练+微调”的脑电大模型和基于“文本/语言模型”的脑电大模型,下面将分别展开介绍。

2.1 基于“无标签数据预训练+微调”的脑电大模型

该类模型先利用大规模无标签脑电数据进行预训练,再在少量有标签数据上进行微调,以适应特定的下游任务,以下为该类别的代表模型。

1)BIOT模型(Biosignal Transformer)。2023年,伊利诺伊大学厄巴纳—香槟分校研究人员率先提出大模型处理脑电信号的通用数据处理方式,并将其命名为BIOT模型[19]。核心思想是将脑电划分为不同的Patch,并编码为Token,以适应不同通道、不同时长以及时间缺失等问题,同时提取脑电信号的时间特征和空间特征(简称“时空特征”),为进一步扩大脑电预训练数据集提供基础。该模型采用Linear Transformer框架,与Token类型的输入搭配,采用随机掩码Patch的“监督学习+自监督预训练”学习模式。在EEG、心电图和人类活动感觉信号上对BIOT模型进行了综合评估,常见设置下优于基线,并且在CHB-MIT癫痫发作检测任务中,预训练的BIOT模型在平衡精度方面比基线提高了4%。

2)LaBraM模型。2024年,上海交通大学联合上海零唯一思科技有限公司共同完成国内首个脑电大模型LaBraM[10],该研究成果作为热点论文发表于第12届国际学习表征会议(ICLR2024),且入选了2024年“华瑙奖”。该模型采用双Transformer编码架构,借鉴BIOT模型的思路,先将脑电信号分割成通道片段(Patch),通过对称掩码EEG通道片段的原始神经Token来完成自监督预训练,提取信号时空特征,获得EEG信号的通用表征能力。该模型从20个公开数据集中收集了超过2 500 h的EEG数据,采用向量量化神经频谱预测技术训练神经标记器,将连续的原始EEG通道片段编码成紧凑且离散的神经Token。LaBraM在异常检测、事件类型分类、情感识别和步态预测等多种下游任务上表现出色。

3)EEGFormer模型。EEGFormer模型由微软研究院和上海科技大学共同提出,模型将EEG数据视为多变量时间序列数据,提取脑电信号的频谱特征,通过自定义的向量量化预训练方法来学习[11]。模型同样使用Transformer编码器和解码器,通过位置嵌入和可学习的权重矩阵处理EEG数据,加入向量量化器,将连续的EEG信号编码为离散的标记,达到了可解释的目的。采用1.7 TB的TUH Corpus数据集进行自监督预训练,并在TUAB、TUAR等下游任务上进行微调测试,表现出较好的性能。

4)EEGPT模型(哈工大)。哈尔滨工业大学(哈工大)提出的脑电大模型命名为EEGPT[12]。前者是一个具有1 000万参数的预训练Vision Transformer模型,设计了双自监督学习方法,结合时空表示对齐和掩码重建,提高特征质量和模型收敛性,为EEG信号处理提供有效的创新解决方案。实验结果验证该模型在多种下游任务中的有效性和可扩展性,达到了最先进的性能。

5)EEGPT模型(国科大)。中国科学院大学(国科大)提出的脑电大模型也命名为EEGPT[13]。采用新颖的电极建模策略,将每个电极作为基本处理单元,构成电极图网络,成功整合源自多达138个电极的不同EEG数据集,积累了3 750万样本。模型通过自回归预训练捕捉数据中的时序依赖关系,提出“自回归预训练+多任务迁移学习范式”,构建跨任务共享的可学习电极图网络特征。实验结果表明,该模型在5个任务的12个数据集上表现出优异性能,优于现有专用模型。

6)Brant模型。Brant模型是Brant-X的第1版,由浙江大学提出,基于大规模的颅内数据进行预训练,旨在捕捉神经信号的长期时间依赖性和空间相关性,并结合了时间和频率域的信息[20]。该模型主要由两个Transformer编码器组成,即时间编码器和空间编码器。时间编码器对连续的Patches序列进行编码,专注于时间依赖性;空间编码器对来自所有通道的具有相同时间索引的Patch进行编码,以捕获潜在的空间相关性,并采用何凯明提出的MAE(Masked AutoEncoder)方法对模型进行自监督预训练。该模型在1.01 TB的立体定向脑电图(Stereo-Electroencephalography, SEEG)神经数据上进行了预训练,并且在带有癫痫标签的29.39 GB数据和43 h的SEEG数据集进行模型微调和评估。作为基础模型,在神经信号预测、频率相位预测、插补和癫痫发作检测等多种下游任务上实现了最先进的性能,显示出广泛的泛化能力。

7)FoME模型。FoME模型由西北工业大学提出,引入了时间—频率融合嵌入技术和自适应时空注意力缩放(Time-Frequency Fusion Embedding Technique and Adaptive Time-Lateral Attention Scaling, ATLAS)机制,采用Transformer模型架构的自监督学习有效捕捉EEG信号的复杂时序和频谱动态(简称“时频特征”)。通过在多个下游任务上的评估,FoME展示了其在分类和预测应用中的优越性能,为脑机接口、临床诊断和认知研究等领域提供了新的范式[15]

结合以上列出的7个基础脑电大模型,从提取特征、模型架构、学习模式和最大模型规模等4个方面进行对比,如表1所示。大多数模型都提取时空特征,部分模型还结合了频谱特征(如EEGFormer和Brant)和电极特征(如EEGPT);在模型架构上,Transformer架构在多个模型中被广泛采用,部分模型结合了双Transformer编码器(如LaBraM和Brant);在学习模式上,自监督预训练是大多数模型的核心,部分模型结合了多任务迁移学习(如EEGPT);模型规模不等,整体而言,较大的模型通常具有更强的特征提取和泛化能力。

2.2 基于“文本/语言模型”的脑电大模型

这类模型将脑电数据与现有成熟大模型结合,通过多任务指令调整,实现跨模态分析和推理。

1)EEG-GPT模型。EEG-GPT模型由伊利诺伊大学厄巴纳—香槟分校提出,是一种创新的EEG信号处理框架,利用大型语言模型(Large Language Model, LLM)进行EEG信号的分类和解释[16]。该模型将EEG信号视为一种“外语”,通过LLM的强大能力,不仅实现了高效的分类,还提供了中间推理步骤,显著增强了模型在临床环境中的可解释性和可信度。在仅使用2%的训练数据的情况下,EEG-GPT能够实现与当前最先进的深度学习方法相当的性能,展示了其在数据稀缺环境下的强大适应性。

2)NeuroLM模型。NeuroLM模型由上海交通大学提出,是一种多任务基础模型,旨在通过跨模态学习提升EEG信号处理的性能[17]。该模型将EEG信号视为一种外语,通过向量量化时频预测技术将EEG信号编码为离散标记,并利用LLM进行自回归学习。NeuroLM通过多任务指令调整,能适应多种下游任务(情绪识别、癫痫发作检测等)。该系列中最大的模型具有17亿参数,并在25 000 h的EEG数据上进行预训练,展示了多任务学习范式的巨大潜力。

3)AdaCT适配器。AdaCT适配器由香港科技大学提出,是一种即插即用的适配器,旨在将时间序列数据转换为时空二维伪图像或文本形式[21]。AdaCT适配器分为两类。AdaCT-I:将多通道或长单通道时间序列数据转换为时空二维伪图像,以便对预训练的视觉Transformer进行微调。AdaCT-T:将短单通道数据转换为文本,以便对预训练的语言Transformer进行微调。该方法在EEG分类任务中表现出色,尤其是在运动想象分类和睡眠分期等任务中,展示了其在跨模态转换中的高效性和灵活性。

从现有文献可以看到,与第1类基于“无标签数据预训练+微调”的脑电大模型相比,基于“文本/语言模型”的脑电大模型研究相对滞后。研究者把精力更多放在利用现有文本/语言大模型开展脑电信号解码工作上,悉尼科技大学的Duan等[22]提出了DeWave架构,将离散编码序列整合到开放词汇的EEG到文本翻译任务中,实现了无需标记的原始EEG波形的翻译。美国弗吉尼亚理工大学的Liu等[23]提出EEG2TEXT,利用EEG预训练来增强从EEG信号中学习语义,并提出一种多视图转换器来建模大脑不同空间区域对EEG信号的处理,提高开放词汇EEG-to-text解码的准确率。伊利诺伊大学厄巴纳—香槟分校的Wang等[24],假设人脑是一个特殊的文本编码器,提出一个利用预训练语言模型(BART)开展EEG-to-text解码的新框架。上海交通大学吕宝粮教授团队[25]也在开展脑电动态视频解码工作,并发布了动态视觉脑电数据集(SEED-DV),提出一种EEG2Video脑电解码视觉感知的框架。

总之,这类模型把“脑电”当成一种新模态的“外语”,通过离散token化+大模型对齐,让原本为自然语言训练的Transformer直接“听懂”大脑信号。但其性能天花板取决于基座模型的语义容量,而落地瓶颈则在于EEG文本对齐的精度、可解释性与临床合规性。

2.3 常用模型数据库对比

数据是各类大模型的基础,脑电大模型亦是如此。以下列举了常用脑电大模型采用的预训练和下游任务数据库[26],如表2所示。

表2可以看出,现有脑电大模型在数据使用上呈现出3种不同路径。

1)追求极致的“数据广度”,以LaBraM、NeuroLM为代表,整合了十多个公共数据集,旨在通过庞大的数据量让模型学习到最具泛化性的基础特征。

2)侧重精细的“数据深度”,以EEGPT(国科大)和Brant为代表,不单纯追求数据量,更强调数据的质量、多样性和特异性。前者引入多模态认知任务数据,以提升模型对复杂认知状态的理解;而Brant则直接使用临床数据,深度和精度极高,专攻癫痫等重大疾病。

3)注重实用与轻量的“高效适配”路径,以BIOT和AdaCT适配器为代表,预训练数据规模相对较小,但下游任务与预训练数据高度相关或完全一致,不过度追求通用性,而是针对特定任务(如睡眠分期、癫痫检测、活动识别)进行深度优化。

2.4 常用模型性能对比

为了进一步分析模型的分类性能,将上述常见模型的性能进行了横向对比,虽然各模型预训练数据和下游任务千差万别,但脑电大模型设计初衷为适应不同的训练数据、兼容不同的下游任务,因此直接引用各文章中的数据进行比较。各文章中采用的下游任务有二分类和多分类,多分类又分多种情况,为横向对比带来困难。为了便于比较,选用各模型的二分类结果进行性能对比,如表3所示。

表3中能够清晰看出,在二分类任务中,LaBraM、Brant和FoME这3个模型展现出了较高的分类准确率。其中,FoME模型的性能尤为出色,这很大程度上得益于其在设计时引入的ATLAS机制。

然而,当查看表1时会发现,LaBraM、Brant和FoME这3个表现优异的模型参数规模相对较大。具体而言,FoME的参数规模达到744.8×106,Brant的参数规模达到505.69×106,LaBraM的参数规模达到369×106,并且性能最佳的FoME模型参数规模也是最大的。由此可见,脑电大模型的性能与参数规模呈现出正相关,这一结论与Jiang等[10]关于LaBraM的论文中的论证一致。

3 脑电大模型未来发展思考

尽管脑电大模型研究已取得显著进展,但仍有多个具有潜力的研究方向值得探索。这些方向将缓解数据异构、计算瓶颈与可解释性难题,加速脑电大模型在临床诊断和智能医疗设备中的落地。

1)数据处理与优化。当前EEG数据在采集协议、设备及预处理流程上缺乏统一标准,影响了模型训练的协同效应。未来需建立更完善的跨数据集对齐方法与噪声抑制技术,解决数据异构难题。

2)多模态—跨模型融合。结合磁共振功能成像(functional Magnetic Resonance Imaging, fMRI)、脑磁图(Magnetoencephalography, MEG)或其他生理信号(如心率、肌电)与EEG的多模态融合建模,可能突破单一模态的信息局限性,增强对脑状态解读的全面性。同时,探索脑电大模型与大语言、视觉/文本大模型的嵌入层对齐,拓展脑电技术的应用边界。

3)模型轻量化设计。现有性能提升多依赖参数堆砌,亟需面向嵌入式与实时BCI场景,研究模型压缩、知识蒸馏等轻量化策略,在不降精度的前提下削减计算开销。

4)可解释性与神经机制。借助注意力机制和特征可视化技术,深入解析模型决策与脑电生理特征之间的关联,实现神经科学与人工智能的双向验证。

4 结束语

脑电大模型作为一个新兴的研究领域,在脑电图信号处理和脑机接口领域呈现出了巨大的应用潜力。系统地阐述了脑电大模型的基本理论框架和架构设计,并基于这些基础理论,详细梳理了当前主流脑电大模型在特征提取、模型架构和学习模式等方面的技术特点,对各模型数据库和下游任务中的二分类性能进行了对比分析,并探讨了脑电大模型未来的发展方向,旨在为脑电大模型的后续研究提供有价值的参考。

参考文献

[1]

SHARMA RMEENA H K. Emerging trends in EEG signal processing: a systematic review[J]. SN Computer Science20245(4):415.

[2]

BRAKE N, DUC F, ROKOS Aet al. A neurophysiological basis for aperiodic EEG and the background spectral trend[J]. Nature Communications202415:1514.

[3]

DE GANS C JBURGER PVAN DEN ENDE E Set al. Sleep assessment using EEG-based wearables–A systematic review[J]. Sleep Medicine Reviews202476:101951.

[4]

RAHUL JSHARMA DSHARMA L Det al. A systematic review of EEG based automated schizophrenia classification through machine learning and deep learning[J]. Frontiers in Human Neuroscience202418:1347082.

[5]

SEKKAL R NBEREKSI-REGUIG FRUIZ-FERNANDEZ Det al. Automatic sleep stage classification: from classical machine learning methods to deep learning[J]. Biomedical Signal Processing and Control2022,77:No.103751.

[6]

VASWANI ASHAZEER NPARMAR Net al. Attention is all you need[J]. Advances in neural information processing systems201730(1):2.

[7]

MAO W LFATHURRAHMAN H I KLEE Yet al. EEG dataset classification using CNN method[J]. Journal of Physics: Conference Series20201456(1):No.012017.

[8]

ROY SKIRAL-KORNEK IHARRER S. ChronoNet: a deep recurrent neural network for abnormal EEG identification[C]∥Proceedings of 17th Conference on Artificial Intelligence in Medicine. Cham, Switzerland: Springer, 2019:47-56.

[9]

SONG Y HZHENG Q QLIU B Cet al. EEG conformer: convolutional transformer for EEG decoding and visualization[J]. IEEE Transactions on Neural Systems and Rehabilitation Engineering202331:710-719.

[10]

JIANG W BZHAO L MLU B L. Large brain model for learning generic representations with tremendous EEG data in BCI[DB/OL]. (2024-05-29)[2025-09-24].

[11]

CHEN Y QREN KSONG K Tet al. EEGFormer: towards transferable and interpretable large-scale EEG foundation model[DB/OL]. (2024-01-11)[2025-09-24].

[12]

WANG G YLIU W CHE Y Het al. EEGPT: pretrained transformer for universal and reliable representation of EEG signals[J]. Advances in Neural Information Processing Systems202437:39249-39280.

[13]

YUE T TGAO X GXUE S Net al. EEGPT: unleashing the potential of EEG generalist foundation model by autoregressive pre-training[DB/OL]. (2024-10-14)[2025-09-24].

[14]

ZHANG D ZYUAN Z ZCHEN J Ret al. Brant-X: a unified physiological signal alignment framework[C]∥Proceedings of 30th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. New York, USA: ACM, 2024:4155-4166.

[15]

SHI E ZZHAO KYUAN Q Let al. FoME: a foundation model for EEG using adaptive temporal-lateral attention scaling[DB/OL]. (2024-09-19)[2025-09-24].

[16]

KIM J WALAA ABERNARDO D. EEG-GPT: exploring capabilities of large language models for EEG classification and interpretation[DB/OL]. (2025-03-20)[2025-09-24].

[17]

JIANG W BWANG Y SLU B Let al. NeuroLM: a universal multi-task foundation model for bridging the gap between language and EEG signals[DB/OL]. (2024-08-27)[2025-09-24].

[18]

张建宜,姚佳奇,褚衍杰,.基于预训练模型的多示例语音内容分类[J].信息工程大学学报202223(2):141-147.

[19]

YANG C QWESTOVER M BSUN J M. BIOT: biosignal transformer for cross-data learning in the wild[J]. Advances in Neural Information Processing Systems202336:78240-78260.

[20]

ZHANG D ZYUAN Z ZYANG Yet al. Brant: foundation model for intracranial neural signal[J]. Advances in Neural Information Processing Systems202336:26304-26321.

[21]

WANG B XFU X WLAN Yet al. Large transformers are better EEG learners[DB/OL]. (2023-08-20)[2025-09-24].

[22]

DUAN Y QZHOU J ZWANG Zet al. DeWave: discrete EEG waves encoding for brain dynamics to text translation[DB/OL]. (2023-09-25)[2025-09-24].

[23]

LIU H WHAJIALIGOL DANTONY Bet al. EEG2-TEXT: open vocabulary EEG-to-text decoding with EEG pre-training and multi-view transformer[DB/OL]. (2024-05-03)[2025-09-24].

[24]

WANG Z H LJI H. Open vocabulary electroencephalography-to-text decoding and zero-shot sentiment classification[J]. Proceedings of the AAAI Conference on Artificial Intelligence202236(5):5350-5358.

[25]

LIU X HLIU Y KWANG Y Set al. EEG2video: towards decoding dynamic visual perception from EEG signals[J]. Advances in Neural Information Processing Systems202437:72245-72273.

[26]

LAI J HWEI J YYAO Let al. A simple review of EEG foundation models: datasets, advancements and future perspectives[DB/OL]. (2025-04-24)[2025-09-24].

基金资助

科技创新2030重大项目(2022ZD0208500)

国家自然科学基金(62106285)

AI Summary AI Mindmap
PDF (1547KB)

146

访问

0

被引

详细

导航
相关文章

AI思维导图

/