您访问的页面找不回来了!
返回首页- 您感兴趣的信息加载中...
实例分割,自动驾驶的曙光已现
实例分割是一个很综合的问题,融合了目标检测、图像分割、图像分类等多种AI技术。顾名思义,像素级别的语义分割,是对图像中的每个像素都划分出对应的类别,即实现像素级别的分类;而分类的具体对象,即为实例。那么实例分割不仅要进行像素级别的分类,还需要在具体的类别基础上区别开不同的实例。实例分割对自驾汽车、机器人、视频监控等领域,都有着举足轻重的重要价值,获得全世界科学研发界的密切关注。
Cityscapes评测集包含50个城市不同情况下的街景,以及30类物体标注。此次搜狗参加的实例场景图像语义分割评测,类别对象多、场景复杂,挑战难度非常大。面对复杂的实例环境,搜狗所展示的技术十分巧妙。
过去,我们常常会把AI的关注点放在单一的车道上,而实际的路况信息乃是十分复杂且多变的,必须要求驾驶员有足够的“眼观六路耳听八方”的能力,用纵览全局的目光来观察整个路况。基于这个原因,搜狗通过引入全局编码模块,来显著提升了全局信息在实例分割中的影响。全局编码模块可以很好地捕获图像中的语义信息,并选择性地突出显示与实例相关联的特征映射,从而提升准确率。
另一方面,在训练过程中如果只是简单地引入每个像素的分割损失,而不是着重使用场景的全局上下文信息,会导致严重的类间不平衡问题。针对这一现状,搜狗引入了一种全局实例例编码损失函数GIE-loss。这种损失函数会预测场景中出现的实例类别,来加强网络学习全局语义信息的能力。不像传统的针对每个像素的损失函数,GIE-loss对每个物体,不管大大小小都是同等对待的,在使用这个损失函数后,小物体的分割效果明显变好。