Google I/O 2021 What's new in Android Machine Learning
以下是视频内容的文字总结,以供参考
一、背景知识
设备端的机器学习近年来发展迅速,Google I/O 2021 《What's new in Android Machine Learning》这一part主要从设备端机器学习的一些优势、常见应用场景、在部署中面临的一些技术挑战、以及Google针对这些问题的解决方案几个方向来展开。
二、分享内容
2.1 设备端机器学习的发展与优势
过去十年,机器学习在视觉、语音处理及语言任务能力方面取得了长足的发展。
与云端部署相比,设备端机器学习有很多优势:
本地设备上处理数据,可以减少无线电使用量,从而降低功耗
消除往返,改进延迟
减少隐私数据暴露
不仅可以离线使用,也可在线使用
常见应用:视频会议背景模糊、实时语音字幕、使用ML Kit进行实时姿态检测、离线翻译、手写识别等,其他内容可以访问g.co/on-device-ml
Android设备上ML发展迅速,包含硬件加速功能的设备超过7.3亿,ML Kit每月活跃用户超过5亿
2.2 设备端机器学习面临的一些挑战
在Android上部署这些应用面临一些共同的挑战
包体大小的限制
设备之间的性能差异、稳定性、准确性问题
设备的兼容性大导致的通用机器学习API数量稀少(不同版本的支持)
能不能有一套组件来解决这些问题?
2.3 解决方案
提供一套可更新的完全集成的机器学习推理堆栈(方案)
无需捆绑集成机器学习相关组件
能提供各种硬件加速来进行性能优化
适用于各个Android 版本的统一API,定期从Google获取常用更新
就是TensorFlow Lite for Android
通过Google Play为Android设备预装TensorFlow Lite, 不需要捆绑安装,减小包体大小, 通过Google Play自动更新
TensorFlow Lite 集成硬件加速,通过向模型中添加元数据,为模型选择最佳性能的后端,CPU性能提升了50%,
TensorFlow Lite拥有强大的CPU后端,并能使用Android基础的硬件加速
之前想让模型运行在GPU上,在Android上非常复杂
性能、稳定性和准确性都会因为芯片组合GPU驱动程序而异
需要设置实验,获取不同设备上的数据进行训练
目前,已经提供了部分解决方案,从TFLite 2.3起,Android版内置了GPU加速支持列表,只需实例化,通过GPU代理类安全使用确认支持的相关硬件调用,但是并没法衡量使用GPU后是否达到加速效果
为此提供了自动加速,将模型考虑在内,借助额外的元数据,检查模型是否正常运行,以及使用加速器时的性能是否优于CPU。自动支持列表不仅适用于CPU和GPU,还适用于其他DSP、NPU
Android 神经网络API
随着新ANdroid机型DSP、NPU硬件单元的增加,NNAPI可以保证在不同设备上访问这些底层硬件单元
但是自Android 10版本以来NNAPI是集成到Android OS中了,更新缓慢,新模型只能再新设备上运行,并且需要开发者自动适配不同的设备
Android 12开始NNAPI从OS中移除,通过Google Play更新,并且可更实际的新硬件驱动。不同的Android版本-硬件使用相同的NNAPI,并且高通将成为可更新NNAPI产品的合作伙伴
三、总结
3.1 内容小结
设备端机器学习,Android新特性
3.2 关键QA
Q:TensorFlow Lite如何在设备端直接集成?
A:。通过Google Play Service服务更新常用组件一样,成为基础API库
Q:自动硬件加速如何实现?
A:简单理解应该是在每次运行过程中在不指定硬件backend情况下,自发收集和调度模型的运行情况,找到最有解;
Q:NNAPI到底是什么?
A:之前是集成在Android OS层面的神经网络库,后续单独剥离出来,也是通过Google Play Services更新,另外正在和硬件厂商合作,统一对应硬件兼容和驱动更新。