面向机器人操作任务的视触觉传感技术综述

您所在的位置:网站首页 触觉机理图片 面向机器人操作任务的视触觉传感技术综述

面向机器人操作任务的视触觉传感技术综述

2024-07-13 00:23| 来源: 网络整理| 查看: 265

在基于学习的触觉特征编码方面,Lambeta M等人[17]在装备DIGIT视触觉传感器的Allegro Hand灵巧手上开展了玻璃珠掌内操作任务研究,首先通过将触觉图像输入自编码器的编码部分进行玻璃珠接触位置检测,并训练了一个前向动力学模型预测玻璃珠下一时刻的接触位置,最后将接触位置信息与模型预测控制结合进行玻璃珠的掌内姿态控制。Dong S Y等人[53]研究了基于触觉图像状态感知的轴孔装配策略学习问题,将装配问题建模为插入尝试和姿态校正之间迭代的策略学习问题,如图15(a)所示。该研究基于强化学习算法探索了不同的机制来学习相关装配策略,实验结果表明,学习对几何形状具有一定泛化能力的触觉反馈轴孔装配策略是可行的,并在真实的轴孔装配任务场景中开展了相关实验。Wang C等人[54]研发了“甩笔机器人”——SwingBot,可以通过触觉探索来学习所持物体的物理特征,如图15(b)所示。通过采集两个探索动作(倾斜和摇晃)的触觉图像数据, SwingBot可以学习到物体所对应的物理参数特征,并将学习到的特征嵌入操作策略学习,最终结合控制参数可以预测执行动态向上摆动操作所获得的摆动角度。Anzai T等人[55]提出了端到端的掌内物体姿态变化检测网络,直接将由腕部相机采集到的视觉图像与对应的视触觉传感器所采集的触觉图像作为输入,通过双模态感知的方式对掌内物体的姿态变化进行估计。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3