论文部分内容阅读
社交媒体的开放性与便捷性降低了编写和分享虚假信息的成本,这对国家安全、社会稳定以及信息系统生态安全造成了很大威胁。由于社交媒体上的信息有着数量大,迷惑性高,模态多的特点,人工检测在及时性、覆盖度和有效性上存在局限性,研究虚假信息的自动化检测技术至关重要。当前基于深度学习的模型取得了很好的效果。然而,一方面,深度学习的黑盒性质使得模型缺乏透明性与证据支持,另一方面,虚假信息分类问题需要人们信任模型分类结果,提高了对算法可信度的要求。如何处理这二者之间的矛盾,并利用社交媒体上驳杂且繁复的相关线索提高虚假信息分类效果,是本文面对的主要挑战。针对上述挑战,本文致力于充分挖掘信息相关的各类证据,捕捉它们之间的隐含联系,提高虚假信息分类算法的性能和可信度。本文遵循国际商业机器公司(IBM)提出的可信AI对算法可解释性和鲁棒性的要求,开展了如下的研究。首先,本文为了捕捉和建模信息帖子和用户评论的语义关系,提出了基于正负注意力的可解释虚假信息分类技术。该方法建模在语义希尔伯特空间下以模拟人类语言中的类量子现象,并设计正负注意力机制捕捉帖子和评论之间立场和重要性两方面的关系,提高模型的透明度和事后可解释性。其次,本文针对信息文本和配图之间的隐含联系,提出了基于对抗的多模态虚假信息分类技术。该方法利用多模态预训练模型和协同视觉-文本多头注意力机制,充分探索文本和视觉线索之间不同层次的关系,并针对多模态数据设计了三类恶意扰动,利用对抗训练提高模型的鲁棒性。本文针对每种模型都在两个真实数据集上进行实验,实验结果表明了所提方法的有效性。最后,本文基于上述方法,设计实现了可信的虚假信息分类系统。系统包括从数据处理-模型训练-结果展示的完整用户交互式流程,用户可以根据自己的需求调整参数构建适合自己任务的模型。