3 个月前

ProxEmo:基于步态的情感学习与多视角近身关系融合的社交感知机器人导航

ProxEmo:基于步态的情感学习与多视角近身关系融合的社交感知机器人导航

摘要

我们提出了一种名为ProxEmo的新颖端到端情绪预测算法,用于在行人环境中实现具备社会意识的机器人导航。该方法通过分析行人的行走姿态来预测其感知情绪,并据此实现考虑社交规范与人际距离约束的情绪引导式导航。为实现情绪分类,我们设计了一种基于多视角骨骼图卷积的模型,该模型可运行于安装在移动机器人上的普通摄像头。我们的情绪识别系统被集成至无地图导航框架中,无需对行人运动环境做出任何假设。在Emotion-Gait基准数据集上,该方法实现了82.47%的平均情绪预测准确率,显著优于当前基于三维步态的情绪识别最先进算法。我们通过使用Clearpath Jackal机器人在室内场景中的导航实验,验证了该方法在实际应用中的有效性与优势。

代码仓库

vijay4313/proxemo
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
emotion-classification-on-ewalkBaseline (Vanilla LSTM) [Ewalk]
Accuracy: 55.47
emotion-classification-on-ewalkSTEP [bhattacharya2019step]
Accuracy: 78.24
emotion-classification-on-ewalkProxEmo (ours)
Accuracy: 82.4

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
ProxEmo:基于步态的情感学习与多视角近身关系融合的社交感知机器人导航 | 论文 | HyperAI超神经