在 iOS 设备上运行 TensorFlow 中训练好的模型
有2种方法可以在 iOS 设备上运行训练好的模型:
- 导入 TensorFlow 的 iOS 版
TensorFlow-experimental
, 然后在工程中使用 TensorFLow 的 C++ 版来实现.
有2种方法可以在 iOS 设备上运行训练好的模型:
TensorFlow-experimental
, 然后在工程中使用 TensorFLow 的 C++ 版来实现._config.yml
里的post_asset_folder
这个选项设置为true
hexo目录下
执行命令npm install hexo-asset-image --save
,这是下载安装一个可以上传本地图片的插件, 插件地址: GitHub-hexo-asset-image所谓迁移学习, 就是将一个问题上训练好的模型通过简单的调整使其适用于一个新的问题.
为什么需要迁移学习?
随着模型复杂度的增加可以提高识别的准确率, 但是同时需要大量的标记数据和时间来进行训练, 在真实应用中很难收集到如此多的标记数据. 即便可以收集到也会消耗大量的人力物力, 即便收集到了, 还需要大量时间训练. 迁移学习可以很好解决这些问题.
上一节学习了 CNN 的结构 - 卷积层和池化层. 然而通过这些网络结构任意组合得到的神经网络有无限多种, 那么怎样的神经网络更能解决图像问题呢. 大神们已经总结出了几种经典的模型, 通过学习这些模型可以总结出一些 CNN 结构设计的一些模式.
CNN(Convolutional Neural Network) 即卷积神经网络的简称.
CNN 的应用非常广泛, 在自然语言处理/医药发现/灾难气候发现/围棋人工智能等领域都有应用.
本次学习主要针对图像识别领域上的应用.
之前写的手写体程序没有持久化训练好的模型. 经过上一节持久化的学习后, 现在来优化一下之前的程序. 顺便把各个功能的实现进行模块化拆分.
持久化主要解决问题:
上一节笔记中记录了调用 saver.save()
会生成三个文件.
知识点:
BugTags
不知道出了什么毛病, 自动上传了符号表后, 崩溃日志只有一个描述, 堆栈信息全部都没有还原, 索性直接把原始日志下载来手动解析了.
为了方便, 用Python
写了一个利用symbolicatecrash
自动还原符号的程序.
最新在使用PyQt5开发时有个上传大文件的需求, 在查阅Requests
官网进阶手册 Advanced Usage — Requests 2.18.4 documentation 中只有上传文件的几种方法介绍, 并没有提到上传进度获取.