0%

本文是上一篇文章『RNN和LSTM从理论到实践一:词向量』的续文。

上一章中,我们了解了词向量怎样训练,并跟随udacity上面的例子及问题动手实践了Skip Gram和CBOW模型训练算法。我们也顺带看了一下什么是语言模型,以及基础的n-gram模型是怎么样的。这次我们将要在前面的基础上,看看RNN和LSTM模型是什么样的,并将和大家一起动手去实现一个LSTM模型用于生成一个句子。

我们的问题

先来看我们的问题,然后让我们带着问题,来学习RNN和LSTM。这次我们要解决的问题是:如何生成一个看起来还不错的句子。

我们之前介绍过n-gram,那么我们能不能使用n-gram去预测单词,进而生成一个句子呢?我们可以使用频率统计来计算n-gram的语言模型:

阅读全文 »

做一个小demo来演示强化学习的入门问题–MDP问题的解决。