Loading...
在生活当中有很多场景都可以抽象为多对多匹配问题,比如网约车和外卖派单、会员偏好分配、相亲问题等,可以观察出来,这些问题其实都可以抽象为 N 个物品分配给 M 个人。
长短期记忆网络(Long Short-Term Memory Network,LSTM)是循环神经网络的一个变体,可以有效地解决简单循环神经网络的梯度爆炸或消失问题。通过引入一个新的内部状态和门控机制来实现长短期记忆的功能。
在 Word2Vec 中,Embedding 是一个映射,将词从原先所属的空间映射到新的多维空间中,也就是把词从原先所在空间嵌入到一个新的空间中去。本文介绍的 CBOW 和 Skip-Gram 是生成 Embedding 矩阵比较著名的两种无监督训练方法。
本篇文章记录了我用 TensorFlow 2.0 建立时间序列模型在 Beijing PM 2.5 Data Set 上进行时间序列预测的过程。分为前言、预处理数据、训练模型、评估模型几个部分,源码在文章的最后以 ipynb 和 py 文件的形式给出。