元器件交易网-中发网全新升级平台
关注我们:
首页 > 业界新闻 > 正文

MIT新机器人“成精了” 能通过视觉和触觉识别事物

MIT新机器人“成精了” 能通过视觉和触觉识别事物0

MIT新机器人项目领导者李云珠

腾讯科技讯 6月17日消息,据外媒报道,对于人类来说,很容易通过观察某个物体来判断其外观,或者通过触摸它来判断它给人的感受,但是这对机器来说是可能是个巨大的挑战。现在,美国麻省理工学院(MIT)计算机科学和人工智能实验室(CSAIL)开发的一种新机器人,正试图获得人类的视觉和触觉能力。

CSAIL团队使用KUKA机器人手臂,并添加了一种名为GelSight的触觉传感器,该传感器是由CSAIL下属泰德·阿德尔森(Ted Adelson)团队开发。GelSight收集的信息会被传输给人工智能(AI),以便后者能够理解视觉信息和触觉信息之间的关系。

为了教授AI如何通过触摸来识别物体,CSAIL团队录制了12000个视频,记录了200个物体,如织物、工具以及被触摸的家居物品。这些视频被分解成静态图像,AI使用这个数据集来连接触觉和视觉数据。

CSAIL博士生、关于该系统的新论文主要作者李云珠(音译)表示:“通过观察场景,我们的模型可以想象触摸平面或锋利边缘的感觉。通过盲目的触摸,我们的模型可以纯粹通过触觉来预测与环境的交互。将这两种感觉结合起来,可以增强机器人的能力,减少我们在操作和抓取对象时可能需要的数据。”

目前,机器人只能在受控环境中识别物体。下一步是建立更大的数据集,这样机器人就可以在更不同的环境下工作。

加州大学伯克利分校博士后安德鲁·欧文斯(Andrew Owens)表示:“这种方法可能对机器人非常有用,因为它们需要回答这样的问题:‘这个物体是硬的还是软的?’或者‘如果我用手把这个杯子举起来,我的抓力会有多好?’这些都是非常具有挑战性的问题,因为信号是如此的不同,而MIT的模型已经显示出很强的能力。”(腾讯科技审校/金鹿)

声明: 本网站原创内容,如需转载,请注明出处;本网站转载内容(文章、图片、视频等资料)的版权归原网站所有。如我们转载或使用了您的文章或图片等资料的,未能及时和您沟通确认的,请第一时间通知我们,以便我们第一时间采取相应措施,避免给双方造成不必要的经济损失或其他侵权责任。如您未通知我们,我们有权利免于承担任何责任。 我们的联系邮箱:news@cecb2b.com。

买正品元器件就上天交商城!

扫描左侧的二维码

科技圈最新动态一手掌握
每日砸蛋,中奖率100%