您访问的页面找不回来了!
返回首页- 您感兴趣的信息加载中...
在个标准循环神经网络LSTM模型的例子,微软通过把整个模型所有的算子融合成一个内核函数,从而基本消除了所有框架本身的额外开销。跟原始的TensorFlow相比快了10倍之多,而与TensorFlow开发的编译优化系统XLA相比,也有很大程度的提升。
最后在内存使用效率上,如GPU或者定制硬件加速器,这些硬件的内存资源有限,很可能限制模型的规模。微软的解决方法是利用模型量化和压缩去减小它的体积,或是如果模型很大,可以将其放在host内存中,使数据分段地传输到GPU里,但对于不同的模型任务或应用,需要挑选最合适的方法。同时也对TensorFlow做了一些改进,将接口更为便捷的开放给开发者进行尝试,以此来实现不同的压缩和量化方法。
微软的意图很明显,就是将技术更好的对外进行输送,帮助开发者、企业能够更聚焦在自家业务方面,而不是去关注底层系统到底是如何运行的。
通过这些巨头的不断努力,或许终有一天大多深度学习框架都将具备互通统一特性,就好比当年的数据库,最早数据库有很多类型,但最后伴随Relationalalgebra(关系代数)为基础的数据库的诞生,让所有数据库模型都成为一种统一的模型。而在人工智能方面,从系统角度来看,这必然是未来的大趋势之一。
正如微软印度公司人工智能部门总经理桑达尔·斯理尼万森所说,微软要让所有个人和机构都使用上人工智能。未来即使是非人工智能或是机器学习方面的专家,也能将最新的人工智能技术融入到自家所研发的产品当中。