为了在单视角网格上重建皱巴巴的布料,研究人员使用了一个基于图形神经网络的模型。该算法旨在处理可以用图形表示的数据。
研究人员汇编了一个数据集训练其模型,其中包含超过12万张合成图像,这些图像来自布料网格的模拟、渲染的顶级
视频RGBD布料图像,以及在现实世界中捕获的3000多张带标签的布料图像。在对这两个数据集进行大量训练后,研究人员发现,模型只需从上方查看布料就可有效地预测整个布料顶点的位置。
在模拟和实验中,他们的模型都能够生成布料的网格,从而有效指导ABB YuMi机器人的运动,使它无论是用单手还是同时使用双手,都能够更好地握住和操纵各种布料。
研究人员汇编的数据集和模型的代码是开源的,可以在GitHub上访问。未来这项研究可能会为机器人领域的进一步发展铺平道路,有助于让移动机器人更好地帮助人类做家务,尤其是提高它们处理桌布和其他各种常用布料的能力。(张佳欣)