萧箫 发自 凹非寺 量子位 报道 | 公众号 QbitAI
只需要400块不到,就能拥有一个可编程的AI小机器人,而且还能用手机控制?
这就是英特尔实验室(Intel Lab)最新公布的研究成果OpenBot。
作为一个小型电动汽车,它可以被植入AI目标检测算法,实时跟踪行人或者目标物体。
例如,跟着家里的小朋友出去遛弯:
不仅如此,还能自动导航。
像是在办公室避开障碍物,甚至化身一个小小的摄像机,把拍摄到的东西记录下来:
而这一切,只需要你自己的手机,再加上成本总共不到400元的3D打印零件!
下图是小车需要所有零件,包括3D打印车身、速度传感器、电池……
据了解,在这款机器人研发出来之前,传感器性能较好、设备配置较先进的机器人,基本需要2000-5000美元的配置;
即使是家用的小型手机可编程机器人,配置也需要250美元左右,实时传感的效果还不太好。
研究者们表示,其实全球超过40%的人都拥有智能手机,如果利用上手机的性能,这个成本50美元的小机器人的确不难实现。
况且,OpenBot的所有程序开源,哪怕是想要自己动手配置一个,似乎也不是问题?
下面来「解剖」一下这个机器人。
软件:两大功能
1、跟踪行人:目标检测算法
事实上,跟踪行人的设计,采用的是目标检测SSD算法,配置MobileNet的神经网络框架。
MobileNet-SSD目标检测算法框架的优势在于,它真的非常小,加上整个网络结构,算下来也就30MB不到。
△ SSD算法的先验框,根据目标形状选框的形状
无论是安装在手机上,还是树莓派上,这个算法都是移动设备进行AI目标检测算法的好选择。
当然,目标检测毕竟只是图像级,如果需要达成跟踪效果,还需要一个小算法,使得程序能周期性运行,达到「实时检测」的效果。
2、自动导航:只需要1.3M参数
事实上,此前能实现自动导航的软件参数量达到了9.1M,而英特尔实验室的研究人员将这个程序的参数量进一步缩小到了1.3M,直接减少了7倍的参数量。
这个程序同样是实时的,通过设计一个神经网络,类似于命令行输入变量的条件模仿学习,实现了这个「自动导航」的驾驶策略。
而且,只需要30分钟,就能训练好这个网络。从整体软件部分来看,设计是这样的:
在手机端,采用游戏控制器的接口链接小车,这里包括车辆的控制、行驶模式等功能。
当然,呈现给用户的会是一个图像接口,更加容易上手。
此外,它也会以音频的形式,将信息反馈给用户。
至于Arduino端,则实现如下几个功能:PWM动力控制、负责执行指示信号、测量轮子速度、监控电池电量、以及与手机端的信号沟通。
如果对软件部分感兴趣的话,可以学习一下他们的开源算法(文末附项目链接)。
硬件:不是树莓派
事实上,这个机器人最亲民的地方在于,只需要通过手机,就能控制机器人。
不仅如此,由于配件简单,基本上可以自己动手组装。
当然,如果你想要自己制作一个更好看的车身,用3D打印就行:
而这个小车的整体硬件电路图如下,结构非常简单,连上4个车轮,2个LED灯,2个速度传感器,而可编程器件则与手机相连。
也就是说,只要在可编程器件上植入相应的程序,小车就会按照你的意愿跑起来。
当然,作者表示,这个毕竟是更贴近于「家庭装」的AI机器人,如果需要更高端的轻量级嵌入式设备,树莓派是个非常不错的选择,但不一定能实现手机拥有的这么多功能。
如下图所示,以手机配置的机器人除了LiDAR,其他的功能如WiFi、蓝牙连接、相机都可以使用。
所以,实现这个机器人,最需要的是一部好手机?
OpenBot的小限制
事实上,Intel Lab从2018年起就开始研制低成本、高性能的小型移动AI机器人,而刚刚推出的这个小机器人,已经是第3代了。
从下图来看,第3代的AI机器人,不仅支持5G,而且相机也从1200万像素增加到了最大10800万像素(也与手机性能有关)。
嗯,似乎发现了什么华点:
没错,这个项目有个限制,目前只能应用于安卓端。
研发团队表示,如果这个项目比较受欢迎,团队将会考虑开发适配于iPhone的程序。
不过,由于这是开源项目,所以iOS的开发人员自己动手来一个,也未尝不可(眼神暗示)。
项目链接: https://www.openbot.org/
参考链接: https://towardsdatascience.com/got-50-turn-your-phone-into-a-programmable-robot-bf69d3df1231 https://arxiv.org/pdf/2008.10631.pdf