谷歌发布可简化设备中TensorFlow Lite模型部署的工具Model Maker

Google发布了一个称为TensorFlow Lite Model Maker的工具,能使用转移学习使机器学习模型,调节开发者自定义的数据集。ModelMaker使用API封装了复杂的机器学习概念,让开发人员仅需要撰写几行代码,就能以TensorFlow框架训练模型,并将模型部署到设备中的人工智能应用程序。

谷歌发布可简化设备中TensorFlow Lite模型部署的工具Model Maker

TensorFlow Lite在2017年时发布,专为边缘设备设计的TensorFlow模型预测框架,是TensorFlow的精简版本,让开发者可以在移动、物联网与嵌入式设备中部署机器学习模型,目前已经被大量部署于全球40亿个设备中,支持Android、iOS以及Linux的物联网设备和微控制器。

Model Maker是要让开发者能够根据自己的使用案例,自定义预训练模型,使这些预训练模型能够应用开发者的数据集,Model Maker支持TensorFlowHub上各种可用的模型,同时也包括这次新发布的EfficientNet-Lite、MobileBERT以及ALBERT模型,官方提到,开发者只需要修改一行代码,就可以切换使用不同模型基础构架。Model Make目前支持两种使用案例,分别是图象分类以及文字分类。

而官方新发布的EfficientNet-Lite、MobileBERT以及ALBERT三种模型基础构架,可提供开发者应用于更广泛的使用案例,解决各式问题。EfficientNet-Lite是一种新型的图象分类模型,仅需要少量的计算以及参数,就能够实现高精准度的预测结果;EfficientNet-Lite模型针对TensorFlowLite进行了最佳化,能以可忽略的精度损失支持量化,并由GPU达到更快速的预测。

MobileBERT则是热门的BERT模型最佳化版本,BERT模型能够以高准确性,执行一系列自然语言处理任务,包括问答、自然语言预测等工作,而MobileBERT的执行速度约比BERT还要快4倍,容量更小且可以维持相似的精准度。

另一个新模型ALBERT,同样是BERT的另一个轻量级版本,是个与TensorFlow Lite兼容的版本,官方对模型的大小进行了最佳化,比BERT小6倍,比MobileBERT小1.5倍,但是延迟与BERT相当,也能提供相似的预测精准度。

谷歌发布可简化设备中TensorFlow Lite模型部署的工具Model Maker

官方也说明了接下来他们的发展方向,仍然会继续发布设备中模型,推出更多模型支持电脑视觉以及自然语言处理的使用案例,同时也会发布新的教学教材与示例,展示在移动设备中使用C/C++ API进行预测的方法。

Model Maker也会获得改进,能够支持更多元的任务,包括物件侦测和更多自然语言处理任务,官方表示,他们要让没有机器学习专业的开发人员,可以通过迁移学习来建置新的自然语言处理模型。

另外,他们也会扩展元数据和代码生成工具,并且与AndroidStudio和TensorFlow Hub等更多平台整合。

编辑:AI智慧


分享到:


相關文章: