项目介绍 AVEC2014数据集是一个专为音频、视频和音视频情感分析设计的基准测试集,同时涵盖了抑郁症的自动估计。该数据集通过Webcam和麦克风记录了真实的人机交互场景,提供了丰富的注释信息,旨在帮助研究人员进行连续时间、连续值的情感识别。数据集不仅支持3D维度情感识别,还包含了抑郁症评估所需的自我报告数据,是情感分析和抑郁症研究领域的宝贵资源。
面部表情识别(FER)和通过迁移学习在AffectNet数据集上计算效价和唤醒。采用了几个众所周知的CNN基线,包括VGG19、ResNet152、EfficientNet和ConvNext。这些模型在 AffectNet 数据集上进行了微调和评估,该数据集是一个用效价和唤醒标签注释的面部表情的大型数据集。该数据集包含超过 280,000 张图像,包括 8 个面部表情类别。
Distract Your Attention: Multi-head Cross Attention Network for Facial Expression Recognition A PyTorch implementation of the DAN, pre-trained models are available for deployment.
BiMamba2 仅使用 PyTorch 实现,提供 N 维支持,包括对 1D、2D 和 3D 数据的支持。使用 BiMamba2,您可以轻松地将其拼接到任何模型中以提高准确性。
MAE-DFER:用于自我监督动态面部表情识别的高效掩码自动编码器 (ACM MM 2023)一方面,目前 DFER 的工作集中在开发各种深度监督模型,但只取得了渐进的进展,这主要归因于长期缺乏大规模的高质量数据集。另一方面,由于面部表情感知的模糊性和主观性,获取大规模高质量的 DFER 样本非常耗时且劳动密集。这项工作旨在探索一种新的方法(即自我监督学习),该方法可以充分利用大规模的未标记数据
"Frame Attention Networks for Facial Expression Recognition in Videos" 引入注意力机制,在训练过程中区分出更具代表性的帧进而提升后续表情识别效果
用于面部表情分析的开源工具包LibreFace。LibreFace通过深度学习模型实现了面部行为的实时和离线分析,包括面部动作单元(Action Unit,AU)检测、AU强度估计和面部表情识别。LibreFace使用大规模预训练网络、特征级知识精馏和任务特定的微调来实现这些功能,这些方法通过利用视觉信息有效、准确地分析面部表情,有助于实时交互应用程序的实现。
用于视频数据增强的代码, This python library helps you with augmenting videos for your deep learning architectures. It converts input videos into a new, much larger set of slightly altered videos.
EmoReact 是一个 4 至 14 岁儿童的多模态情绪数据集,包含 1102 个视频;同类数据集中最大的数据集。该数据集注释了 17 种情感状态。EmoReact:用于识别儿童情绪反应的多模态方法和数据集。
X-AnyLabeling 是一款基于AI推理引擎和丰富功能特性于一体的强大辅助标注工具,其专注于实际应用,致力于为图像数据工程师提供工业级的一站式解决方案,可自动快速进行各种复杂任务的标定