实验室承办NCMMSC 2025“语音、情感与精神健康”专题研讨,聚焦情感智能与脑健康交叉前沿

10月19日,由东南大学HAI Lab实验室组织承办的NCMMSC 2025特殊议题“语音、情感与精神健康”专题研讨会在江苏镇江成功举行。会议由脑与学习科学系副主任罗兆杰副教授担任组织者,副教授宗源共同协办。会议邀请了来自北京理工大学、中国科学院自动化研究所、内蒙古大学等多所高校和科研机构的专家学者齐聚一堂,围绕“语音、情感与精神健康”这一新兴交叉领域开展了深入交流与探讨。

罗兆杰副教授在开场致辞中指出,随着语音信号处理与情感计算技术的不断突破,语音已不仅仅是人类交流的媒介,更成为理解人类心理与情绪状态的重要通道。通过语音、面部表情及生理信号等多模态数据,研究者能够捕捉情感变化,从而为抑郁、焦虑、自闭症等精神健康问题提供辅助诊断与干预的新思路。本专题旨在推动语音信号分析、情绪识别与临床心理健康研究的深度融合,探索构建“具有温度的智能系统”的实现路径。

专题报告精彩纷呈,展示了多模态情感计算新成果。会议邀请了五位来自国内顶尖科研机构的专家学者作主题报告,内容涵盖计算机听觉、情感大模型、人机交互、可解释性建模与可穿戴感知等多个方向:

  • 北京理工大学钱昆教授 以《音频——数字健康的新启发》为题,介绍了计算机听觉在数字医疗与智慧健康中的最新进展,强调音频信号在非侵入式心理健康监测中的巨大潜力。
  • 中国科学院自动化研究所连政副研究员 作报告《基于多模态大模型的情感理解》,分享了AffectGPT与Emotion-LLaMA等多模态大模型在情感计算任务中的创新性应用。
  • 内蒙古大学刘瑞教授 带来报告《人机语音对话中的链式情感理解和表达》,提出“链式情感理解”框架,提升情感交互的逻辑可解释性。
  • 东南大学张天翼副教授 则分享了《基于可穿戴生理信号的细粒度情感识别研究》,介绍了其团队在低标注条件下提升生理信号情感识别精度的最新成果。

在讨论环节,参会专家围绕多模态情感计算的未来方向、可解释性模型的挑战、以及情感智能在医疗与教育领域的应用展开了热烈交流。多位学者指出,随着AI大模型与脑健康研究的结合,语音与情感分析将成为精神健康监测的重要技术支撑,未来应加强算法可解释性与临床可用性研究,促进情感计算技术向实际应用场景的落地转化。

罗兆杰副教授在总结发言中表示,本次专题的召开不仅为语音情感与精神健康研究搭建了高水平的学术交流平台,也为中国脑科学与情感智能领域的科研布局注入了新的活力。未来将持续推动跨学科、跨机构合作,助力构建“懂人、助人”的智能健康体系。

此次“语音、情感与精神健康”专题研讨的成功举办,标志着东南大学在情感智能与脑健康研究领域迈出了新的步伐。会议汇聚了语音信号处理、情感建模与医学人工智能等多领域的智慧与成果,为促进我国情感智能技术在精神健康场景中的创新与应用奠定了坚实基础。