针对复杂场景下视频异常检测问题,提出了基于改进对抗生成网络(GAN:Generative Adversarial Network)的视频异常检测框架。利用两个判别器对生成器进行对抗训练,并通过回归损失函数增强双向预测的一致性。生成器为使用FusionNet和LSTM(Long Short Term Memory)构建的时空特征融合网络,取正向和反向的视频序列为输入,并分别输出预测视频帧和序列。两个判别器均采用Patch GAN架构,帧判别器用于区分合成帧,序列判别器用于判别帧序列中是否包含至少一个合成帧,以保持时间一致性,提高预测网络的鲁棒性和准确性。最后,基于PNSR(Peak Signal to Noise Ratio)均值归一化完成异常得分计算。实验结果表明,所提框架能很好地捕捉视频序列中的双向时空特征,并在难度较大的视频异常检测公开数据集UCF-Crime(University of Central Florida Crime)和ShanghaiTech上均取得了优于其他先进方法的性能。