GPS不灵光,自动驾驶汽车只能「做个安静美男子」?
为了回答题目提出的问题,剑桥大学的科研党训练了两款系统,它们各自独立但互相补充。自动驾驶汽车用上后可以像人一样看到周围景象,并且在信号不佳的地方准确定位方向。系统
为了回答题目提出的问题,剑桥大学的科研党训练了两款系统,它们各自独立但互相补充。自动驾驶汽车用上后可以像人一样看到周围景象,并且在信号不佳的地方准确定位方向。系统可以识别各种道路设施,却只要一个平常的照相机或智能手机,就能与数土豪传感器PK。
第一个系统名叫SegNet。当借助照相机或手机拍摄一张陌生道路街景照后,系统会把照片里的物体分成12个不同类别,例如道路、街道标识、行人、建筑和自行车,并且这些动作会在车辆行驶过程中同步进行。对于阴影、灯光和夜晚环境产生的干扰,系统都通过算法一一解决,目前对图片90%的像素分类均未发生错误。精准度达到这个数值,和那些价格昂贵的激光或雷达传感器有的一拼,是一种不错的低成本替代方案。
△SegNet运行示例
系统达到这样的水准,离不开剑桥大学工业组研究生的不断调教。他们手动标出了5000幅照片的每一个像素,每张图片耗时30分钟。标记完成后,再花两天时间训练系统,紧接着便是让它上路测试。SegNet已经在城市道路和高速公路上实测成功,还要补充农村、雪地、沙漠环境的训练——不过在有限的几次特殊环境初体验里,表现也很不错。
设计自动驾驶汽车时,一定要解答三大关键技术难题:我在哪?我周围有什么东西?看清周围情况后下一步做什么?SegNet解决的就是第二个问题,可以作为安全警告系统在车上应用,类似那些碰撞预警技术。另一个独立但相互配合的系统,则回答了第一个问题——利用图像确定精准的位置和朝向。
这个本地系统和SegNet在同一个架构下运行,可以确定使用者的地理位置和朝向,需要借助的材料是城市闹市区单色图。据称这个系统比GPS精准不少,而且在没有GPS信号的地方也能使用,比如室内、隧道或者城市偏远地区。
搭载系统的测试车已经在剑桥市中心国王街长达一公里的支路上小试牛刀,只要测试车随意行驶几米和改变些许角度,就能确定方向位置。据研究人员称,这种定位方法比GPS精准不少,对于自动驾驶汽车来说有很大的应用空间。
具体原理上,这个本地化的系统使用了几何场景来获得精准的位置信息,可以直观感受的功能是,你可以判断车头冲着一栋建筑物西面还是东面,即便两面墙看起来没有什么太大差别,也能定位成功。
两款系统的目标应用方向是自动驾驶,不过短期内,研究人员倾向把系统在略简单的家用机器人上商用——比如那种见缝插针哪都会去的扫地机器人。不过当我们的技术越来越精湛,距离自动驾驶汽车搭载并量产的目标,就会更近一些。
PS:现在你可以访问右边的网站在线试用SegNet,上传或者搜索世界上任何一座城市或小镇的照片,系统就会展示如何通过算法把街道场景分类。同时你也可以戳这里获得第二个系统的试用版本。