AI中国网 https: //www.cnaiplus.com
美国麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)开发的一种新机器人,正试图获得人类的视觉和触觉能力。
对人类来说,通过观察一个物体来判断它的外观或者通过触摸它来判断它给人的感觉是很容易的,但是对机器人来说这可能是一个巨大的挑战。
如今,美国麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)开发的一种新智能机器人,正试图获得人类的视觉和触觉能力。
CSAIL团队使用KUKA机器人手臂,并添加了一种名为GelSight的触觉传感器,该传感器是由CSAIL下属泰德·阿德尔森(Ted Adelson)团队开发。GelSight收集的信息会被传输给人工智能(AI),以便后者能够理解视觉信息和触觉信息之间的关系。
为了教授AI如何通过触摸来识别物体,CSAIL团队录制了12000个视频,记录了200个物体,如织物、工具以及被触摸的家居物品。这些视频被分解成静态图像,AI使用这个数据集来连接触觉和视觉数据。
现在,机器人只能在受控环境中识别物体。 下一步是创建更大的数据集,使机器人能够在不同的环境中运行。
加州大学伯克利分校博士后安德鲁·欧文斯(Andrew Owens)表示:“这种方法可能对机器人非常有用,因为它们需要回答这样的问题:‘这个物体是硬的还是软的?’或者‘如果我用手把这个杯子举起来,我的抓力会有多好?’这些都是非常具有挑战性的问题,因为信号是如此的不同,而MIT的模型已经显示出很强的能力。”
MIT新机器人项目领导者李云珠
CSAIL博士生、关于该系统的新论文主要作者李云珠(音译)表示:“通过观察场景,我们的模型可以想象触摸平面或尖锐边缘的感觉。通过盲目触摸,我们的模型可以完全通过触摸来预测与环境的交互。将这两种感觉结合起来可以提高机器人技术x的能力,减少我们在处理和抓取物体时可能需要的东西。”
AI中国网 https: //www.cnaiplus.com
本文网址: