背景与总结

人类的情感是日常生活不可或缺的一部分,影响着各种认知能力12.具体来说,它们可以将注意力引导到环境的关键特征上,优化感官摄入,调整决策,准备行为反应,促进社会互动,增强情景记忆3.4.因此,人类的情绪影响着人类每天经历的不同任务,如学习、睡眠、驾驶、娱乐。开车现在是一项典型的日常工作56.据统计报告显示,全球人均每天驾驶时间超过1小时78,这也伴随着驾驶任务中人类负面情绪造成的严重伤害、死亡和相关成本910.长期以来,如何通过研究驾驶任务中人的情绪来降低由情绪引起的事故风险,一直是心理学、生理学、工程学、人体工程学等诸多领域的重要研究课题,并得到了广泛的研究1112131415

随着传感、机器学习和计算系统的发展,大量新兴的智能车辆被开发出来,与交通网络中的车辆、行人、基础设施和云连接1617.因此,智能汽车已经成为承载丰富功能和服务的智能移动终端1819,不仅拓展和深化了人机交互的范围,而且为进一步研究驾驶任务中的人类情感,即情感感知的人机交互,提供了一个新兴的、具有挑战性的研究领域20.21.具体而言,情感感知人机交互包括多模态情感检测和调节,这将增强人类在驾驶任务中的安全性,也将提高他们的舒适性和驾驶体验2223.研究驾驶任务中情感感知的人机交互需要跨学科知识,包括认知心理学、脑科学、人为因素、汽车工程、情感计算等1924.可穿戴设备等最新的技术创新促进了对情绪的研究,导致越来越多的研究调查驾驶过程中某些情绪的积极或消极影响(例如愤怒)25、悲伤26).为了测量人类的情绪,心理学研究揭示了情绪的多模态表达27.此外,情感计算的研究主要集中在基于不同情绪表达的人类情绪状态的检测上628.此外,视觉和听觉界面等人机界面会影响人在驾驶任务中的情绪1529

为了研究驾驶任务中的人类情感,研究人员需要丰富且可重复的数据集30..在过去的十年里,研究人员在驾驶中共享了多个人类情感数据集。表格1总结了调查论文中捕获驾驶员信息的数据集。虽然这些数据集为人类情感研究的成功支持做出了贡献,但仍然缺乏用于驾驶中人类情感研究的多模态数据集(包括心理、生理和行为数据)。因此,创建驾驶中的多模态人类情感数据集是情感感知人机交互研究的重要一步。然而,据我们所知,目前还没有公开的驾驶任务中人类情绪的多模态数据集。

表1用于人类驾驶情绪研究的公开数据集综述。

在这里,我们提出了驾驶任务中人类情绪的心理、行为和生理数据(PPB-Emo)的多模态数据集。如图所示。1,我们进行了三个实验来收集PPB-Emo数据集。实验一招募27名参与者,采用深度访谈法探讨驾驶员对诱发不同情绪的驾驶场景的看法,并将调查结果用于编制问卷。实验二招募409名参与者,通过问卷调查获取诱发人类驾驶员产生特定情绪的驾驶场景信息,并以此为依据选择视频-音频刺激材料。实验三采用实验一和实验二中选取的视频音频片段作为人类驾驶员情绪诱导的刺激材料。在实验III中,招募40名参与者,收集所有参与者在280次驾驶任务中的心理数据(自我报告的维度情绪和离散情绪、人格特征)和生理数据(脑电图)以及行为数据(驾驶行为、面部表情、身体姿势、道路场景)。PPB-Emo数据集将在很大程度上支持驾驶任务中人类情绪-认知-行为-个性的分析,以及情绪检测算法和自适应情绪调节策略的研究。据我们所知,PPB-Emo数据集是目前唯一公开的驾驶任务中人类情绪的多模态数据集,PPB-Emo数据集也将有益于其他日常任务中的人类情绪研究。

图1
图1

数据收集概述。

方法

道德声明

这项研究是根据《赫尔辛基宣言》及其后来的修正案的要求进行的。本研究的内容和程序经重庆大学肿瘤医院伦理委员会注意并批准(批准文号:2019223)。

所有参与者在参加本研究前均给予书面知情同意书。研究人员通知参与者,研究结果可能会在学术期刊或书籍上发表。在实验过程中,参与者被告知他们在实验中拥有的权利。在实验过程中,他们可以随时退出。

在研究结束时,所有参与者都获得了将处理后的数据记录公之于众的权限。由于PPB-Emo将向公众开放,因此在公开包含个人身份信息的数据时获得了单独的同意,这些信息是参与者在驾驶任务中的面部表情。额外的权限用于告知他们将公开共享的数据类型,以及共享处理过的数据记录的日期和时间可能导致的重新识别的潜在风险。共享权限由本次研究的所有参与者授予。

实验一:深度访谈,收集司机观点

实验一主要研究驾驶员对诱发人类不同情绪的驾驶场景的看法。

参与者

对27名参与者进行了深入访谈。27例受试者中女性6例(22.22%),男性21例(77.78%)。年龄19 ~ 55岁,平均年龄36.81岁(标准差(SD) = 9.27)。参加者的驾驶经验由1年至25年不等,平均驾驶经验为8.93年(标准差= 6.49)。参与者的职业包括工人、教师、学生、农民、职员、公务员、司机等。

过程

深度访谈的目的是获取诱发人类驾驶员不同情绪的现实场景信息,并将结果用于编制问卷。场景信息收集过程包括与人类司机的半结构化访谈。访谈采用访谈指南法31.所有参与者首先签署人口统计问卷,收集年龄、性别、驾驶经历、职业等个人和人口统计信息。然后,通过对参与者的采访,参与者回答了一组开放式问题(例如,问题“你能分享一个你在开车时感到害怕的经历,甚至当你回忆起来的时候吗?”)。在回答过程中,采访者引导参与者用自己的语言回忆和描述引发不同情绪的驾驶场景,包括道路、天气和光照条件;其他道路使用者的行为;事件;以及其他影响因素(例如,回答“有一次,我晚上在山路上开车,路上一个人也没有。我觉得很困。我的眼睛不由自主地闭上了。当我睁开眼睛时,我发现自己陷入了一个急转弯。 I stepped on the brakes. It made me feel scared.”). Each participant answered seven driving scenarios questions corresponding to different emotions. The interview time for each participant was about 30 minutes and the process was recorded.

收集司机观点的结果

所有深度访谈的录音和现场笔记都被逐字转录,并使用Excel文件进行分析。首先,将27位受访者的原稿分解成完整的句子。接下来,在驾驶员情绪分析方面具有专业知识和丰富经验的两名研究人员(男女各一名)分别对句子进行评估,并在他们的共识下确定陈述中七种情绪对应的主要场景信息。综上所述,诱发人类司机愤怒的场景有11种;有16种场景能让驾驶员产生幸福感;让人类司机害怕的十种场景;11种场景会让人类司机感到恶心;有十种场景会让人类司机感到惊讶;相对而言,触发人类驾驶员悲伤和中性的场景较少,分别为5个和6个。表格2根据参与者的数量,总结了诱发每种情绪的前五种驾驶场景。

表2根据被试人数对诱发每种情绪的前五种驾驶场景进行描述。

实验二:刺激选择在线问卷调查

实验二主要通过问卷调查,获得7个最能有效诱发人类驾驶员相应情绪的驾驶场景,作为视频-音频刺激材料选择的依据。

参与者

409名中国参与者来自四个国家,包括中国、美国、加拿大和新加坡。他们被要求完成一份在线问卷,其中包括146名女性(35.61%)和263名男性(64.39%)。参与者年龄18-71岁,平均年龄31.34岁(SD = 10.64)。参加者的驾驶经验介乎1至41年,平均驾驶经验为5.87年(标准差= 6.69)。

过程

因为在线调查可以避免数据收集的地域限制,而且之前的研究也证实了在线工具在评估驾驶行为方面的有效性3233.因此,为了收集实验二的数据,我们进行了在线调查。基于实验一的结果,在线问卷分为两部分,共十个问题。第一部分是人口背景。有三个问题,包括性别、年龄和驾驶经验。第二部分以实验一的结果为基础,针对诱发人类驾驶员不同情绪的驾驶场景提出了7个问题。这些问题对应着需要调查的七种情绪。每个问题描述了五种不同的驾驶场景。这些场景描述来自实验一中最常被提及的五个场景,参与者被要求从五个场景中选择最可能引起相应情绪的场景,如果他们愿意,他们可以选择一个以上的场景(最多5个)。完成问卷大约需要10分钟。

专业在线调查平台搜跳(www.sojump.com)设计并发布问卷。自动记录参与者的答案、地区和回答时间。调查分布在社交软件(微信和QQ)的聊天群中。为了提高调查的参与度,参与者在完成调查后将获得5元人民币的奖励。

刺激选择结果

参与者报告了在驾驶过程中容易诱发七种情绪状态(愤怒、恐惧、厌恶、悲伤、惊讶、快乐和中性)的相应场景。表格3.展示409名参与者中容易诱发7种情绪的场景的频率和百分比。其中,共有344人(84.11%)认为“别人开着远光灯接车,影响视力”的场景。最有可能引发他们的愤怒。310名(75.79%)受访者提到“在山道上行驶,路旁有高高的悬崖。”,这会让他们感到恐惧。351名参与者(85.82%)在看到“前面的司机不停地扔垃圾、水瓶、吐痰”的场景时感到恶心。共有271名(66.26%)受访者认为“开车时目睹意外”情景。是最容易让他们伤心的。307名受试者(75.06%)报告“看到一些行人在高速公路上行走”。会让他们大吃一惊。在幸福感方面,299名(73.11%)受访者表示“在路上看到有趣的事情,外面的风景很美”。是最容易让他们开心的。场景对应的频率如图所示。2.此外,273名参与者(66.75%)在边听轻音乐边开车时感觉中立。

表3 409名参与者的在线问卷调查结果。
图2
图2

容易诱发六种基本情绪的相应场景的频率。x轴表示触发特定情绪的驾驶场景,例如愤怒-1表示其他人在遇到汽车时保持远光灯,这影响了视觉。表格3.描述触发特定情绪的每个场景的内容。y轴表示在线问卷中409个参与者选择场景的频率,每个参与者最多可以选择5个场景。

人类驾驶员的情绪需要通过适当的刺激来诱导来收集情绪数据。视频音频片段已被证明能可靠地触发人类驾驶员的情绪63435.根据问卷调查的结果,我们在Bilibili网站上手动选择了7个最有效的(在每个情感场景中选择参与者比例最高的)视频音频片段(https://www.bilibili.com/)来诱导实验三中人类驾驶员的相应情绪。Bilibili是一个中国的视频分享网站,用户可以上传自己的生活视频,视频观众可以通过一个被称为“弹幕评论”的滚动评论系统对视频进行标记或添加评论,这将帮助我们评估视频观众对视频音频片段的情绪感受。

为了根据在线调查结果选出最有效的视频音频剪辑,两名在司机情绪分析方面经验丰富的研究专家(一男一女)对100多个视频音频剪辑进行了评估。两位专家的共识决定了视频音频剪辑的选择,最终选择了7个视频进行实验三。值得注意的是,为了让驾驶员在实验III中更有身临其境的感觉,并诱导出正确的情绪,实验II中所选择的所有视频音频片段都是人类驾驶员的第一视角。表格4描述这七个剪辑的内容。

表4所选7个视频音频刺激对人类驾驶员情绪诱导的内容描述。

实验三:驾驶任务中多模态人类情绪数据采集

实验三的目的是收集驾驶任务中人类情绪的多模态心理、生理和行为数据集。

参与者

本次数据收集实验共招募了41名来自重庆的司机。在这些参与者中,参与者1的数据在收集过程中被发现不完整且无效。原因可能是意料之外的技术问题。因此,本实验共有40位参与者(年龄19-58岁,平均年龄28.10岁,SD = 9.47)的数据有效,其中男性31位,女性9位。所有参与者均持有有效驾照,且至少有1年驾龄(驾龄范围= 1-32年,平均驾龄= 5.58年,SD = 6.02)。所有参与者视力和听力正常/矫正。他们的健康状况在实验开始前被报告。研究人员建议参与者在实验前有规律的24小时作息时间,不服用刺激性药物或酒精。实验结束后,每个参与者获得200元的奖励。

实验设置

本实验使用的多模态数据采集系统主要包括心理数据采集模块、生理数据采集模块、行为数据采集模块、驾驶员情绪诱导模块、驾驶场景、数据同步。数字3.显示了整个多模态数据采集实验的设置。具体模块内容如下:

图3
图3

人类驾驶员多模态情绪数据采集的实验建立。(一个)脑电图数据采集,(B)视频数据收集,(C)驾驶行为数据收集,(D)实验装置,(E)驾驶员的情绪感应,(F)心理资料收集。图中相关肖像的使用。3.已获得参与者的授权,可识别信息已在参与者知情的情况下匿名化。

心理数据采集模块

本实验采用三种自述量表收集心理数据,包括人体自我评价量表(SAM)、差异情绪量表(DES)、艾森克人格问卷(EPQ)。山姆36用于被试对自己的次元情绪进行主观注释。在SAM中使用非言语图形表征来评估三个维度(唤醒、效价和支配)的水平。实验过程中采用9分制SAM(1 =“完全不”,9 =“极其”)进行评价。DES37用于被试对自己的离散情绪进行主观注释。DES是一种多维度的自我情绪评估量表,包括悲伤、愤怒、蔑视、恐惧、羞耻、兴趣、喜悦、惊讶、厌恶和内疚等十种基本情绪。在实验中,选择9点量表DES(1 =“完全不”,9 =“极其”)作为评估自我报告情绪各维度强度的方法。EPQ38在实验中,共有88个问题被用来评估参与者的性格特征。EPQ是一种多维度的心理测量38,它可以衡量人类的人格特征,包括p -精神/社会化、e -外向/内向、n -神经质/稳定、L-Lie/社会可取性。实验使用iPad(苹果公司,库比蒂诺,美国)来记录参与者在驾驶过程中自我报告的情绪。

生理数据采集模块

实验中使用EnobioNE (Neuroelectrics, Barcelona, Spain)收集参与者的脑电图生理数据。EnobioNE是一种32通道的无线脑电图设备,使用氯丁橡胶帽将通道固定在所需的大脑位置。使用EnobioNE-32系统记录脑电活动。使用干铜电极(涂有银层)固定在帽上,以保证与参与者头皮的良好接触。EnobioNE的振幅分辨率为24 bi (0.05μV),采样率为500hz,带通滤波器在2 ~ 40hz之间。NIC2软件直接捕获信号,该软件包含信号采集和处理程序。在实验过程中,软件同时过滤出眼电信号(EOG)、肌电信号(EMG)和心电图信号。此外,NIC2软件将信道与国际10-10定位系统中的可变位置动态关联。这些位置的alpha波、beta波、gamma波、delta波和theta波通过NIC2软件直接输出到计算机。

在实验前,研究人员建议参与者应该提前洗头,以避免脑电图帽电极接触不良。在参与者正确戴上设备后,检查并调整EnobioNE系统中所有电极的接触状态,直到达到良好的贴合。此外,夹在右耳垂上的共模传感电极被用作地面参考。

行为数据收集模块

行为数据采集模块包括驾驶行为数据采集和视频数据采集。驾驶员行为数据使用固定的驾驶模拟器(Realtime Technologies, Ann Arbor, USA)获得。该模拟器由半驾驶室平台和自动变速器组成,提供270°视野。该模拟器配备了一个模拟投影的后视镜,让司机可以监控后面的交通状况。此外,引擎和环境的声音通过两个扬声器发出。模拟器中的低音扬声器模拟驾驶员座位下车辆的振动。此外,模拟器仪表盘是一个LCD(分辨率1920×720, 60 Hz)屏幕,用于显示速度表,转速表和档位。驾驶员驾驶过程中操作驾驶模拟器产生的驾驶员行为、道路信息、车辆姿态等数据在主控计算机后台实时同步记录。

视频数据采集由6台高清摄像机组成。本实验使用5台RGB摄像机和1台红外摄像机采集驾驶员面部表情、身体手势和道路场景数据。我们使用的RGB相机是Pro Webcam C920 (Logitech, Newark, USA),分辨率为1920×1080像素,以30帧/秒的帧率收集数据。我们使用的红外相机是一台工业级相机,分辨率为1080×720像素,镜头焦距为2.9毫米,拍摄角度为90度无失真。数据收集的帧率为30帧/秒。在驾驶模拟器的座舱内布置了6台摄像机,其中3台RGB摄像机位于受试者面部前方,左右两侧各40°。这些摄像头用于采集面部表情数据,在驾驶模拟器的前柱上设置1台RGB摄像头采集参与者的驾驶姿态数据,在驾驶模拟器的后视镜位置上设置1台RGB摄像头采集驾驶过程中的道路场景信息。红外摄像机被直接放置在参与者的脸前面,也被用来收集面部表情数据。此外,摄像头还用于收集参与者情绪驾驶时的语音信息。使用LiveView软件(EVtech,长沙,中国)同时记录6台高清摄像机的视频信息。

驾驶员情绪感应模块

实验中使用20英寸模拟器中央显示器(分辨率1280×1024, 60 Hz)显示视频-音频刺激材料。使用立体声蓝牙扬声器(小米,中国深圳)播放音频,并将音频设置为较大音量。同时,每个参与者都被问及音量对他们来说是否舒适,以确保在实验前调整了清晰的听力音量。实验三采用实验二中选择的视频音频刺激材料。为了保证实验过程中参与者的情绪诱导不受人为干预,本实验的情绪诱导系统主要由主控机、远程显示器和远程蓝牙音频播放设备组成。

驾驶场景

本实验设计了两个模拟驾驶场景:正式实验场景和模拟驾驶实践场景。练习场景设置旨在通过正式实验前的练习,提高参与者对驾驶模拟器的控制力和熟悉度。练习驾驶的场景是一段8公里长的高速公路,有双向四车道。正式的实验场景是一个总长度为3公里的双向双车道直线路段。设置这两个场景的原因是为了将复杂驾驶条件对驾驶员性能的要求降至最低,最大程度地展现真实的驾驶员情绪所引发的多模态反应39.在整个实验过程中,参与者被要求在正确的车道上行驶,速度保持在80公里/小时左右。两种实验场景的具体配置参数如表所示5.整个驾驶场景使用SimVista和SimCreator软件来构建驾驶场景。

表5实验三驾驶场景细节。

数据同步

为了实现所有数据的同步采集和存储,本实验采用D-lab数据采集同步平台(Ergoneers, Gewerbering, Germany)进行多通道数据采集,包括EEG、驾驶行为数据、视频数据同步记录在一个共同的时间轴上,实现后续的同步分析。此外,还使用D-Lab对实验进行管理和控制。

实验过程

整个实验过程分为三个部分:前期准备、情绪驱动实验和实验后访谈。整个过程如图所示。4

图4
图4

实验三的实验步骤和任务。(一个)实验准备(B)多模态人类情感数据收集。(C)实验后访谈。

实验准备

  1. 1.

    实验介绍:在参与者到达候诊室后,会向参与者解释本次实验的目的、持续时间以及研究意义。同时告知受试者本实验的数据采集仪器为无创、无辐射仪器,不会对受试者的健康产生任何影响和伤害,并保证受试者的自愿参与。

  2. 2.

    签署参与者知情同意书:指导参与者阅读《参与者知情同意书》,研究人员将为参与者编号并登记基本信息。

  3. 3.

    完成实验参与者的健康状况表:检查参与者在日常生活中的健康状况,以及在过去12小时内是否服用过精神类药物、感冒过敏药物或酒精。研究人员将评估参与者的情况,看他们是否适合参加实验。

  4. 4.

    佩戴测试仪器:研究人员帮助被试佩戴EEG。戴上脑电图帽后,研究人员会调整舒适度,观察电极是否贴合,信号采集是否正常。

  5. 5.

    模拟器练习驾驶:研究人员将带领参与者坐在驾驶舱内,并将座椅的位置调整到合适的位置。然后,研究人员会帮助参与者适应驾驶模拟器的速度控制,并提醒参与者根据速度标志驾驶。在练习驾驶的过程中,研究人员会站在副驾驶的位置向参与者讲解正式的实验流程、步骤和注意事项。

  6. 6.

    填写驾驶模拟器疾病问卷:检查参与者在驾驶模拟器实验过程中是否有身体不适。

多模态人类情感数据采集

在正式实验中,参与者被要求在愤怒、悲伤、恐惧、厌恶、惊讶、快乐和中性七种情绪状态下完成驾驶任务,其中情绪诱导的顺序是随机选择的。每次实验结束后,都设置3分钟的情绪冷静期,让参与者从上一段情绪中冷静下来。

  1. 1.

    情绪诱导:研究者将预设的驾驶场景程序加载到驾驶模拟器中,同时随机播放视频音频片段给被试进行情绪诱导。参与者观看视频音频刺激材料,并试图在驾驶时保持他们的情绪。

  2. 2.

    情绪驾驶:被试观看完情绪诱导材料后,在D (driving)档开始情绪驾驶,实验平台同时开始记录数据。参与者被要求在情绪驾驶阶段将速度保持在80公里/小时左右。

  3. 3.

    情绪自我报告:在完成一段时间的情绪驾驶后,参与者被要求通过完成SAM量表和DES量表的自我评估问卷来回忆他们在驾驶场景中的情绪状态。

  4. 4.

    重复以上两步,直到参与者完成七次情绪驾驶。在参与者完成相应的SAM量表和DES量表后,研究者将记录实验过程。

创意人恭谨有加面试

在完成所有情绪驱动实验后,研究者会帮助被试取下实验仪器,然后引导被试完成EPQ问卷。

数据记录

数据总结

本节讨论了Figshare中PPB-Emo数据集的组织40.表格6总结了PPB-Emo数据集的数据采集。在采集完上述数据后,每位参与者完成了7次模拟器驾驶和数据记录。因此,40名参与者共完成280次驾驶,每次驾驶时间约为135 s。为了验证被试在特定驾驶场景下是否体验到目标情绪,我们进行了目标情绪诱导成功检验。

表6 PPB-Emo数据集收集汇总。

以每个参与者的DES作为ground truth来验证目标情绪是否由参与者在情绪驾驶过程中产生。当自我报告的情绪与目标情绪不一致时,选择自我报告的情绪作为基础事实。结果表明,在愤怒、悲伤、恐惧、厌恶、惊讶、快乐和中性驾驶这4种情绪驾驶中,分别有34人、38人、36人、25人、34人、36人、37人成功诱导进入目标情绪。同时,我们删除了每一组未成功诱导的数据。

由此产生的PPB-Emo数据集包含240组来自40名参与者的有效多模态数据,总计540分钟的原始数据。它包括40名参与者在驾驶任务中的心理数据、生理数据和行为数据。表格7总结了PPB-Emo数据集的详细信息。

表7 PPB-Emo数据集内容。

数据集内容

参与者级别的信息经过预处理,以按照通用数据保护条例(GDPR)完成去身份化41.对于跨数据的时间同步,我们将所有时间戳从UTC + 8转换为UTC + 0并剪切原始数据。以往的研究表明,人类情绪的生理表达至少可以持续30秒1542.因此,基于驾驶行为数据的换档信息,我们认为参与者开始驾驶30 s后的多模态数据是数据处理中最有效的数据。

对于每个参与者的EEG数据和驾驶行为数据,我们首先从D-Lab导出原始数据,数据格式为。txt。然后我们将数据格式转换为。csv,并将前30秒的驾驶行为数据和EEG数据作为最有效的数据进行剪切,分别重命名并存储。对于每个参与者的视频数据,我们首先从Liveview导出原始视频数据,数据格式为。mp4。随后,我们将前30秒的视频数据进行剪辑,作为最有效的数据,将原始拍摄分成6张图像,分别存储和重命名,包括道路场景视频、红外中间人脸视频、驾驶身体手势视频、RGB左人脸视频、RGB中人脸视频、RGB右人脸视频。请注意,任何未经编辑的视频和原始日志级别的数据录音将不会被提供。同时,这些数据的预处理代码也不会公开,因为其中包含的隐私敏感信息超出了我们允许共享的信息的边界。更多细节可以在代码可用性部分找到。

在数据集的根路径中,它被组织成以下七个主要目录:心理数据、生理数据、驾驶行为数据、面部表情数据、身体手势数据、道路场景数据和脚本。这些目录中的README.TXT文件将给出详细的解释。为每个参与者分配一个唯一的两位数参与者ID。

Psychological_data

该目录包含参与者传记、自我报告情绪标签和人格特质的数据,共3个.xlsx文件。

BIO.XLSX.每一行包含参与者的传记数据,按参与者ID、性别(1 =男性,2 =女性)、年龄和驾驶年龄组织。

情感label.XLSX.每一行都包含参与者所经历的情绪的自我报告数据,根据参与者ID、效价、唤醒、主导地位、类别和强度进行组织。SAM量表用于测量效价、唤醒和支配,DES量表用于测量类别和强度。表中显示了每行内容的组织结构10

EPQ.XLSX.每行包含参与者的艾森克人格问卷数据,按照参与者ID、P-score、E-score、N-score、L-score进行整理,其中P reï,代表精神病性/社会化,E代表外向性/内向性,N代表神经质/稳定性,L代表谎言/社会可取性。

Physiological_data

在这个目录下又划分了40个子文件夹,每个子文件夹包含了每个被试的所有脑电信号的数据。这些子文件夹以参与者ID命名,包含多个CSV文件。每个CSV文件都对应有效的情绪驱动。每行包含瞬时测量的脑电图数据,按照rectime, UTC, 32通道脑电图数据,α β γ δ θ每个信道的频带数据。表中显示了每行内容的组织结构8.此外,该目录中还包含EEG蒙太奇描述文件。TXT文件描述了为显示整个头部活动而创建的通道信息,并提供侧化和局部化信息,这将有助于理解和分析脑电图数据。

表8 EEG.CSV中内容的组织结构。

Driving_behavioural_data

该目录下进一步划分了40个子文件夹,每个子文件夹包含了一个参与者的所有驾驶行为数据(DBD)。这些子文件夹以参与者ID命名,包含多个CSV文件。每个CSV文件都对应有效的情绪驱动。每一行包含瞬时测量的驾驶行为数据,并根据rectime、UTC、加速度、横向加速度、油门踏板位置、制动踏板力、齿轮、方向盘位置、速度、横向速度、x位置、y位置、z位置进行组织。表中显示了每行内容的组织结构9

表9驾驶行为数据的内容组织。csv。
表10情绪标签内容组织。csv,注:AD =愤怒驾驶,SAD =悲伤驾驶,FD =恐惧驾驶,DD =厌恶驾驶,SD =惊喜驾驶,HD =快乐驾驶,ND =中性驾驶。

Facial_expression_data

在这个目录下又划分了40个子文件夹,每个子文件夹包含了每个参与者所有的面部表情数据。子文件夹以参与者ID命名,包括4个子文件夹,分别是中央RGB (CRGB)面部表情数据、左RGB (LRGB)面部表情数据、右RGB (RRGB)面部表情数据和中央红外(CIR)面部表情数据。每个文件夹包含多个MP4文件,每个MP4文件对应有效的情绪驱动。参与者情绪驾驶记录的面部表情数据如图所示。5

图5
图5

PPB-Emo数据集视频数据内容。(一个)面部表情数据,包括中央红外面部表情、中央RGB面部表情、左RGB面部表情、右RGB面部表情;(B)身体手势数据,(C)道路情景数据。图中相关肖像的使用。5已获得参与者的授权,可识别信息已在参与者知情的情况下匿名化。

Body_gesture_data

在这个目录下又划分了40个子文件夹,每个子文件夹都包含了每个参与者的身体手势数据。这些子文件夹以参与者ID命名,包括多个MP4文件。每个MP4文件对应有效的情绪驱动。参与者情绪驾驶记录的身体手势数据如图所示。5

Road_scenario_data

该目录分为40个子文件夹,每个文件夹包含每个参与者驾驶道路场景的数据。这些子文件夹以参与者ID命名,包括多个MP4文件。每个MP4文件对应有效的情绪驱动。参与者情绪驾驶记录的驾驶道路场景数据如图所示。5

Selected_stimulus_clips

该目录包含一个选定的视频音频剪辑的子文件夹和一个剪辑原始links.xlsx文件。

精选视频音频片段.此子文件夹包含七个选定的视频音频剪辑,用于驾驶员情绪诱导。七个片段对应的目标情绪是愤怒、悲伤、厌恶、恐惧、快乐、中性和惊讶。

选择视频音频剪辑原始链接。xlsx.每行包含选定的目标情绪的视频音频剪辑原始链接,按目标情绪和原始链接进行组织。

脚本

预处理和主要分析代码(Python脚本)在此目录中进行了总结。技术验证部分中的所有结果都可以使用这些脚本复制。要了解更多细节,请阅读README中的说明。md文件。

技术验证

我们的验证包括情绪标签的可靠性验证,生理和行为数据的质量验证,以及生理、行为和情绪标签的相关性分析。

情绪标签的信度验证

本节介绍一种k均值聚类算法43为40名参与者的主观评分分数的分布提供直观的可视化分析。然后利用三维直方图对各情绪标签的分布进行总结。

情感标签的聚类与可视化分析

我们使用的SAM从三个维度评估情绪:效价、觉醒和支配。为了验证可靠性,我们对这三个维度进行了数据聚类和可视化分析。为了保证每个特征都得到平等对待,我们使用最大-最小归一化方法将所有主观分数投影到0到1的范围,从而对数据进行了无量纲化。然后,以效价、唤醒和支配为散点图的坐标值。数字6(一)显示归一化后40名参与者评分得分的分布。

图6
图6

一个)显示散点图的全貌;(B- - - - - -D)表示各投影面上点的分布。AD =愤怒驾驶,FD =恐惧驾驶,DD =厌恶驾驶,SAD =悲伤驾驶,SD =惊讶驾驶,HD =快乐驾驶,ND =中性驾驶。

使用k均值算法对评分进行聚类,每个聚类的中心如图所示。6(一).7个聚类分别代表7种离散的情绪,包括愤怒驾驶、恐惧驾驶、厌恶驾驶、悲伤驾驶、意外驾驶、快乐驾驶和中性驾驶。各聚类中心点无重叠,聚类分类较为明显,尤其是快乐驾驶、愤怒驾驶和恐惧驾驶场景。由于情绪的复杂性,以及参与者在打分时对某些情绪的不同理解,其他聚类点部分重叠。为了提供更全面的显示,我们将3-D散点图投影到2-D图。数字6(罪犯)显示投影后的结果,每个聚类的中心点仍然没有重叠,聚类的分类比较明显。

情绪标签的分布分析

被试在效价、唤醒和支配、情绪类别和强度方面的评分得分见图。7.横坐标表示七个情绪类别,纵坐标表示主观得分的数值,z坐标表示每个项目的总数。

图7
图7

一个效价得分与情绪类别的分布,(B)唤醒得分和情绪类别的分布,(C)支配得分与情绪类别的分布,(D)情绪强度和情绪类别的分布。

数字7(一)表示价电子的分布。根据定义,效价是指一种情绪的积极或消极。积极情绪的效价得分较高,而消极情绪的效价得分较低。数据分布如图1所示。7(一)符合这个模式。消极情绪(如悲伤、愤怒、厌恶、恐惧)的效价分值主要分布在1 ~ 4之间,而积极或中性情绪(如中性、高兴、惊讶)的效价分值主要分布在5 ~ 9之间。通过符合正态分布模式,验证了效价得分。

数字7 (B)显示了觉醒的分布。根据定义,觉醒的范围从兴奋到放松。数据分布如图1所示。7 (B)遵循这个模式。无花果。7 (B)由图可知,中性的唤醒得分仅位于1,表示被试此时感到放松,没有积极或消极的情绪。该特征符合我们的客观经验,验证了唤醒数据的可靠性。

数字7 (C)显示了优势的分布。根据价价-觉醒-支配模型,支配的范围从服从到支配。恐惧是低支配地位,愤怒是高支配地位。恐惧驱动的分布如图所示。7 (C)主要集中在1和3之间,符合这个模式。其他情绪的分布主要集中在4 - 6之间,说明被试对这些情绪的控制处于中等水平。通过符合正态分布模式,验证了优势度评分的可靠性。

数字7 (D)显示了情绪强度的分布。根据DES的定义,不同情绪强度与强度的得分呈正相关。由于所有的数据都分布在5到9之间,而且大多数分布在6到9之间,因此该分布验证了参与者的情绪已被成功刺激。

生理和行为数据的质量验证

对于研究中涉及的每个变量,我们都进行了可视化显示和质量控制,并且对数据测量的质量进行了彻底的测试。以时间函数的形式提取相关信号。经过质量控制后,每个驱动器的总体结果如图所示。8而且9

图8
图8

不同情绪状态下脑电信号的时间函数。图中的每一行代表驾驶时不同的情绪状态(AD, FD, DD, SAD, SD, HD和ND)。图中的每一列表示从不同通道获得的信号。(一个)通道1至通道16的脑电图信号,(B) 17 ~ 32通道的脑电图信号。

图9
图9

不同情绪状态下驾驶行为的时间函数。图中的每一行都代表了驾驶时不同的情绪状态。从上到下依次为AD、FD、DD、SAD、SD、HD和ND。图中的每一列表示一个不同的动态信号。

生理数据

我们用来获取脑电图信号的设备是一个头戴式设备。数据是通过电极获得的。因此,参与者头发的数量和长度会影响电极的接触和结果。因此,良好的联系是获得有效数据的必要条件。提取有效数据,如图所示。8,其中包含了不同情绪状态下32通道EEG信号的趋势曲线。从图中我们可以看出。8,除20号信道外,大多数信道采集的信号具有明显的相似性和趋势。由于实验过程中接触不良,20通道信号无效。

驾驶行为数据

这些变量包括代表驾驶行为的11个动力学参数,包括加速度、油门/刹车踏板的程度/力、速度和位置,这些参数提供了对驾驶行为的全面描述。数字9展示了7种不同情绪下不同驾驶行为的时间函数。图中的每个子图。9包含40条曲线,每条曲线表示参与者驾驶信号的时间函数。所有的驾驶行为数据都是通过上面提到的驾驶模拟器获得的。如图所示。9,驾驶行为数据在同一情绪上的倾向是一致的。

生理、行为和情绪标签的相关性分析

数字10示Spearman相关分析44在11种驾驶行为中,32通道脑电图信号和3个维度的情绪。相关性以热图的形式显示出来。在无花果。10时,首先使用最大-最小归一化方法对数据进行无量纲化。然后,分别计算每个参与者的数据的均值和方差值,并将处理后的数据与情绪得分的3个维度结合在一起。然后采用Spearman相关分析得到相关系数。相关系数取值范围为−1 ~ 1。

图10
图10

信号相关热图。(一个)脑电图信号均值与情绪三维得分(B)脑电信号与情绪三维得分的方差值,(C)驾驶行为数据和情绪三个维度得分的平均值,(D)驾驶行为数据与情绪三个维度得分的方差值。

生理数据和情感标签

无花果。10 ()为脑电图信号均值与情绪三维得分的相关热图。价价通道(CH)5/CH11/CH14/CH27组、觉醒- ch12 /CH27/CH31组和显性- ch3 /CH26组相关性显著。数字10 (B)为脑电信号方差值与情绪三维得分的相关热图。价性-CH9/CH12/CH13/CH17组、觉醒性- ch4 /CH7/CH9/CH13/CH16/CH17/CH28/CH30/CH31组与显性- ch5 /CH6/CH8/CH20 /CH28/CH29组相关性显著。

行为数据和情感标签

无花果。10 (C)为驾驶行为数据均值与情绪三维得分的相关热图。对相关系数进行归一化处理。觉醒-制动踏板力组间存在高度显著性相关性。数字10 (D)为驾驶行为数据方差值与情绪三维得分的相关热图。价格-油门踏板度、唤醒-刹车踏板力、唤醒-垂直速度/速度、优势-速度组之间存在极显著相关性。

使用笔记

用户可以使用任何视频播放工具(如QuickTime Player)打开。mp4文件。用户可以使用任何电子表格或工作簿软件打开。csv文件。数据可以直接导入Python、Matlab等统计或编程工具进行分析。我们建议用户检查数据库中的示例报告以进一步澄清。

潜在的应用

在各种数据挖掘技术的帮助下,该数据集可用于分析人类驾驶员的情绪-生理-行为-性格特征之间的关系4546.它可以用来分析人类驾驶员的情绪引起的驾驶风险1347.它还可以用来分析驾驶场景和生活场景中人类情感表达的差异648.该数据集还可用于分析人类驾驶员在驾驶环境中不同情绪下的认知和行为变化,进而对人类驾驶员的情绪调节策略进行研究4649

此外,通过应用各种机器学习技术,基于收集到的驾驶行为、脑电图、面部表情、驾驶姿势和道路场景信息,该数据集可用于开发单模态/多模态驾驶员情绪监测算法3550.准确高效的情绪监测算法将有助于人类驾驶员与智能车辆之间的情感感知交互,提高驾驶安全性和舒适性,增加人类对机器的信任4651.此外,PPB-Emo数据集也将有利于其他日常任务中的人类情感研究。

局限性和未来工作

驾驶员情绪诱导。这项研究使用视频音频剪辑来诱导司机的情绪。虽然所有这些视频音频片段都已被验证能够有效地激发预期的人类驾驶员情绪,但本研究不能完全排除视频音频片段诱导的情绪与真实道路驾驶场景诱导的情绪存在差异的可能性。未来,我们将进一步开展道路驾驶实验,研究人类驾驶员在真实道路驾驶场景下的情绪。

参与者。在本研究的三个实验中都存在性别失衡,男女比例为3:1。尽管这与中国司机的男女比例基本相同52,这可能会影响数据集的使用。未来的研究应该尽可能地保持性别比例的平衡。此外,在实验二中,409名中国参与者被邀请在线回答问卷。因为引发相同情绪的场景在不同的文化中可能有所不同53实验二提供的驾驶场景对不同文化群体的诱导效果有待进一步研究。