EfficientNet是谷歌AI科学家们在论文《EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks》中提出的模型。这篇文章不仅提出了这个模型,还系统地研究了模型扩展的问题,大家感兴趣的,可用阅读一下论文原文。EfficientNet的亮眼之处在于,其在保持领先的性能的同时,将模型的参数数量和预测速度都提升了一个数量级。请看下图的性能对比:
深度学习模型重现 -- 前奏
深度学习模型重现 -- DORN
DORN模型的重现
DORN模型是在单图像深度估计问题上效果非常好的模型,18年刚发布的时候,就同时在KITTI数据集和ScanNet数据集上面取得了Robust Vision挑战的第一名。
强化学习 - MDP
做一个小demo来演示强化学习的入门问题–MDP问题的解决。
深入探索生成对抗网络(一)
理解Conv2d及其梯度的计算过程
识别门牌号的移动应用
今天给大家分享一个tensorflow的机器学习应用实例。我们将能看到如何针对特定的问题设计网络结构、设计损失函数,应用一些技巧来简化和拆分问题。还将演示如何将模型导出并部署到Android上,可以让我们感受到tensorflow强大的跨平台特性。
问题导入
提取门牌号进行地图标注
先让我们来看看我们要解决的问题。这个问题的应用场景来源于地图应用,如果能在地图上标注门牌号信息,这样就可以通过文本搜索找到地图中对应的位置了,事实上google地图就是通过训练这样的机器学习模型来进行地图信息标注的。要解决这个问题,可以读取google街景中的照片数据,然后训练一个机器学习模型来提取门牌号信息。如下图所示,当我们可以识别图片中的门牌号"42"了,我们就可以在地图上面进行标注了。
大规模Tensorflow网络的一些技巧
RNN和LSTM从理论到实践二:RNN和LSTM模型
本文是上一篇文章『RNN和LSTM从理论到实践一:词向量』的续文。
上一章中,我们了解了词向量怎样训练,并跟随udacity上面的例子及问题动手实践了Skip Gram和CBOW模型训练算法。我们也顺带看了一下什么是语言模型,以及基础的n-gram模型是怎么样的。这次我们将要在前面的基础上,看看RNN和LSTM模型是什么样的,并将和大家一起动手去实现一个LSTM模型用于生成一个句子。
我们的问题
先来看我们的问题,然后让我们带着问题,来学习RNN和LSTM。这次我们要解决的问题是:如何生成一个看起来还不错的句子。
我们之前介绍过n-gram,那么我们能不能使用n-gram去预测单词,进而生成一个句子呢?我们可以使用频率统计来计算n-gram的语言模型:

