同步操作将从 OpenDocCN/ml-mastery-zh 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
原文: https://machinelearningmastery.com/get-the-most-out-of-lstms/
长短期记忆(LSTM)循环神经网络是一种强大的深度学习类型,适用于序列预测问题。
使用 LSTM 时可能存在的一个问题是,模型增加的复杂性是否会提高模型的技能,或者实际上导致技能低于简单模型。
在这篇文章中,您将发现可以运行的简单实验,以确保您在序列预测问题上充分利用 LSTM。
阅读这篇文章后,你会知道:
让我们潜入。
在你的序列预测问题上充分利用 LSTM DoD News 的照片,保留一些权利。
LSTM 循环神经网络具有一些关键功能,使该方法在广泛的序列预测问题上具有令人印象深刻的能力。
在不深入研究 LSTM 理论的情况下,我们可以总结一下我们可以在模型中配置的 LSTM 的一些离散行为:
这三种功能及其对更简单形式的可配置性为您可以执行的 3 个实验提供了基础,可以准确了解 LSTM 的哪些属性,并且可以利用序列预测问题。
序列预测问题的一个关键特征是观察之间存在顺序依赖性。
也就是说,观察的顺序很重要。
假设:预计观察顺序对于预测序列预测问题很重要。
您可以通过使用仅将先前观察作为输入并对训练和测试数据集进行混洗的模型来开发表现基线来检查该假设是否成立。
这可以通过多种方式实现。两个示例实现包括:
测试:如果顺序依赖对预测问题很重要,那么利用每个输入序列中的观察与输入序列之间的顺序的模型应该比没有预测问题的模型实现更好的表现。
LSTM 的一个关键功能是它们可以记住长输入序列。
也就是说,每个存储器单元保持内部状态,该内部状态可以被认为是在做出预测时使用的局部变量。
假设:模型的内部状态预计对模型技能很重要。
您可以通过使用从一个样本到下一个样本没有内存的模型开发表现基线来检查这种假设是否成立。
这可以通过在每次观察之后重置 LSTM 的内部状态来实现。
测试:如果内部存储器对预测问题很重要,那么在输入序列中具有跨越观察结果的存储器的模型应该比不存在的模型具有更好的表现。
训练循环神经网络的关键是反向传播时间(BPTT)算法。
该算法允许从序列中的所有观察(或截断的 BPTT 的情况下的子集)估计权重更新的梯度。
假设:预计 BPTT 权重更新算法对于序列预测问题的模型技能很重要。
您可以通过开发表现基线来检查此假设是否成立,其中梯度估计基于单个时间步长。
这可以通过分割输入序列来实现,使得每个观察表示单个输入序列。这与调度重量更新和重置内部状态的时间无关。
测试:如果 BPTT 对预测问题很重要,那么估算多个时间步长的权重更新梯度的模型应该比使用单个时间步长的模型获得更好的表现。
在这篇文章中,您发现了 LSTM 的三个关键功能,这些功能为该技术提供了强大的功能,以及如何根据您自己的序列预测问题测试这些属性。
特别:
你有任何问题吗? 将您的问题发布到下面的评论中,我会尽力回答。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。