论文部分内容阅读
人机交互是研究人和机器以及它们之间相互关系的技术,随着科学技术的迅猛发展,人机交互技术发生了质的变化。纵览人机交互的历史演进,人机交互模式已从手工作业阶段、语言命令阶段及图形用户界面交互阶段发展到了多模态交互阶段。交互技术下一阶段的发展重心指向高级人机交互,其关键取决于对机器赋予情感计算的能力,使机器能够感知和理解人的情绪状态,因此研究人机交互中的情感计算具有重要意义。随着传感器技术的发展成熟,智能手机传感器具有强大的计算能力且高度集成化,可以为识别人的情绪和意图提供额外的线索。基于此本文以智能手机为载体,利用智能手机传感器获取人在具体交互情境中的动作数据,挖掘肢体表征信号与情绪状态之间的相关性,实现机器对人类情绪感知的探索。情感计算自提出以来受到了学术界和企业界的广泛关注,目前研究者们已探索多种方式来识别交互中的情绪状态,主要侧重于面部表情理解、语音声学特征理解、肢体动作理解、生理信号理解和文本情绪理解。本文首先介绍人机交互发展趋势,分析情感计算技术及传感器集成化的智能手机对用户状态信息分析的国内外研究现状。针对情绪跨学科机理进行了初步研究,总结情绪发生的核心指标和身体特征对情绪状态的归因,并分析智能手机传感器在人体感知层面的优势。在实验设计阶段,分析视频、图片和文本等素材诱发的缺陷,总结情绪诱发的五类重要因素等实验原则。针对具体交互实验情境,规划实验各个环节,在完成实验采集后对实验诱发效果进行基准评价。利用传感器特征技术工程,分析传感器数据相关性并进行预处理,挖掘和筛选与情绪状态相关的特征。最终借鉴现有机器学习方法,在有效提取特征空间主成分的基础上利用分类算法进行识别和分析。本文为智能手机传感器感知和理解情绪提供一种可行的方案,为赋予机器观察、理解情绪特征的能力提供实践依据,有助于推动和启发机器下一代交互技术变革。此外,智能手机与人的生活耦合度高,有利于帮助教师及医生及时发现自闭症等隐患,因此在智能教育、医疗保健、心理治疗等多个领域均有广阔的应用前景。