3月2日 消息:Meta AI 最近发布了 MMCSG 数据集,该数据集包含使用 Project Aria 录制的25小时以上的双向对话。CHiME-8MMCSG 任务的重点是转录使用智能眼镜录制的对话,这些眼镜配备了多个传感器,包括麦克风、摄像头和惯性测量单元(IMUs)。该数据集旨在帮助研究人员解决问题,如活动检测和说话者分离。该模型的目标是在实时转录中准确记录自然对话的两个方面,考虑到说话者识别、语音识别、对话和多模态信号的整合。
传统的对话转录方法通常仅依赖于音频输入,可能只捕获一些相关信息,尤其是在使用智能眼镜录制的对话等动态环境中。提出的模型利用多模态数据集 MSCSG 数据集,包括音频、视频和 IMU 信号,以增强转录准确性。
该方法整合了各种技术,以提高实时对话的转录准确性,包括目标说话者识别 / 定位、说话者活动检测、语音增强、语音识别和对话。通过整合来自多种模态的信号,如音频、视频、加速度计和陀螺仪,系统旨在提高传统音频系统的性能。此外,在智能眼镜上使用非静态麦克风阵列引入了与音频和视频数据中的运动模糊相关的挑战,该系统通过先进的信号处理和机器学习技术解决了这些挑战。Meta 发布的 MMCSG 数据集为研究人员提供了实际数据,用于训练和评估其系统,促进自动语音识别和活动检测等领域的进展。
CHiME-8MMCSG 任务解决了使用智能眼镜录制的对话的准确实时转录的需求。通过利用多模态数据和先进的信号处理技术,研究人员旨在提高转录准确性,并解决说话者识别和降噪等挑战。MMCSG 数据集的提供为在动态现实环境中开发和评估转录系统提供了宝贵资源。
论文网址:https://ai.meta.com/datasets/mmcsg-dataset/?utm_source=twitter&utm_medium=organic_social&utm_campaign=research&utm_content=image