Tensorflow构建RNN做时间序列预测
off999 2024-09-23 11:36 35 浏览 0 评论
最近比较空闲,刚好学习下Tensorflow和python,于是想写一个Tensorflow的小应用。
时间序列预测在预估企业营收,指标等方面使用的非常多。以前用R写过一个shiny的应用,就是用指数平滑、stl分解等方法做时间序列预测。RNN也是很早之前就接触过理论,是用来处理序列数据的利器。放一个普通RNN的示意图:
可以看到,t时刻RNN单元的输出是由t-1时刻单元的输出St-1和t时刻的训练数据xt共同决定的,用公式表示就是St=f(U*Xt+W*S(t?1))
现在比较常用的RNN单元是LSTM、GRU这些,上面那个原始的RNN使用不太多。为什么呢?
从直观的理解来看:1,原始的RNN记忆容量有限,随着时间间隔不断增大时,RNN会丧失学习到远处单元信息的能力。2,原始RNN是全盘接受了输入的信息,但有的信息可能是无用的。于是针对原始RNN的缺点发展出了LSTM——长短期记忆网络。先放一张它的结构示意图:
通常把LSTM单元成为细胞。LSTM使用”门“来选择性的让信息通过,遗忘或增加到细胞状态。还增加了长期记忆机制,就是图中细胞上面的那条横线。LSTM具体的工作原理可以参考这个讲的很详细点击打开链接。
Tensorflow中使用的需要关注的是LSTM的输入输出。输入就是训练数据(x,y)。LSTM的输出有两个h、c。h是真正的输出状态用来做后续的预测等等,c是细胞的记忆状态。
不说太多理论,直接上代码吧。这边训练数据使用的sin函数产生1000个点,time_step=5
1, 生成训练数据
import numpy as np import pandas as pd import tensorflow as tf from tensorflow.contrib import layers as tflayers def generator(x): return [np.sin(i*0.06) for i in range(x)] def rnn_data_format(data,timestep=7,label=False): data=pd.DataFrame(data) rnn_data=[] if label: ###label是二维数组,[样本数,1] for i in range(len(data) - timestep): rnn_data.append([x for x in data.iloc[i+timestep].as_matrix()]) else: ###样本是3维数组[样本数,time_step,1] for i in range(len(data) - timestep): rnn_data.append([x for x in data.iloc[i:(i+timestep)].as_matrix()]) return np.array(rnn_data,dtype=np.float32) class DataSet(object): def __init__(self, x,y): self._data_size = len(x) self._epochs_completed = 0 self._index_in_epoch = 0 self._data_index = np.arange(len(x)) self.x=x self.y=y def next_batch(self,batch_size): start=self._index_in_epoch if start+batch_size>=self._data_size : np.random.shuffle(self._data_index) self._index_in_epoch=0 start=self._index_in_epoch end=self._index_in_epoch+batch_size self._index_in_epoch=end else: end = self._index_in_epoch + batch_size self._index_in_epoch = end batch_x,batch_y=self.get_data(start,end) return np.array(batch_x,dtype=np.float32),np.array(batch_y,dtype=np.float32) def get_data(self,start,end): batch_x=[] batch_y=[] for i in range(start,end): batch_x.append(self.x[self._data_index[i]]) batch_y.append(self.y[self._data_index[i]]) return batch_x,batch_y ##生成数据 x=generator(1000) X=rnn_data_format(x,5) y=rnn_data_format(x,5,label=True) trainds = DataSet(X,y)
上面的代码用来生产训练数据,用sin函数生成了1000个数据点。rnn_data_format是为了生成[time_step, input]维度的数据。这里吧time_step设为5。因此可知,X的每一个样本是shape为[5,1]的矩阵,用来预测y,y的每一个样本shape为[1,1]。
上面还定义了一个做minibatch的class DataSet,为了生成训练的数据格式,其实就是比原来的X,y多了一个batchsize。trainds由两部分组成,x是shape=[batchsize,time_step, input]的矩阵在这里就是[batchsize,5,1],y是shape=[batchsize,1]的矩阵。这个就是训练的时候需要输入的数据格式。
对应到前面的LSTM卡通图,也就是会有5个LSTM单元,分别接受输入的5个时序位点上的X。需要的结果是最后一个LSTM单元的输出。但一般不会直接用LSTM的结果作为预测值,LSTM的结果是一个[batchsize, hiddensize]的Tensor,所以后面至少需要加一个回归得到预测值。我在是加了2个全连接和1个回归,用来预测y。
2,构建网络
构建多层LSTM,LSTM的输出接全连接层,然后回归计算得到结果
def weight_variable(shape): ###这里定义的是全连接的参数w
initial = tf.truncated_normal(shape, stddev=0.1)
return tf.Variable(initial)
def bias_variable(shape): ###这里定义的是全连接的参数b
initial = tf.constant(0.1, shape=shape)
return tf.Variable(initial)
def lstm_cell3(model='lstm',rnn_size=[128,128],keep_prob=0.8): ###定义LSTM层
if model=='lstm':
cell_func=tf.contrib.rnn.BasicLSTMCell
elif model=='gru':
cell_func=tf.contrib.rnn.GRUCell
elif model=='rnn':
cell_func=tf.contrib.rnn.BasicRNNCell
cell=[]
for unit in rnn_size: ###定义多层LSTM
cell.append(tf.contrib.rnn.DropoutWrapper(cell_func(unit, state_is_tuple = True),output_keep_prob=keep_prob)) ###使用的dropout
return tf.contrib.rnn.MultiRNNCell(cell,state_is_tuple=True)
def dnn_stack(input,layers): ###全连接层使用tflayers里面的stack,这样不用自己手动写连接
if layers and isinstance(layers, dict):
dnn_out=tflayers.stack(input, tflayers.fully_connected,
layers['layers'],
activation_fn=layers.get('activation')
)
elif layers:
dnn_out= tflayers.stack(input, tflayers.fully_connected, layers)
W_fc1 = weight_variable([layers['layers'][-1], 1])
b_fc1 = bias_variable([1])
pred=tf.add(tf.matmul(dnn_out,W_fc1),b_fc1,name='dnnout') ###dnn的输出结果和label对应是一个数字
return pred
在构建网络的过程中对于我这个新手来说有不少的坑,这里说几个印象深刻的:
1,构建多层LSTM的方式。我这里使用的是for循环,每一层单独设置rnn_size也就是隐含层的结点数。一开始参考网上的代码是另一种写法。就是每一层的节点数都一样,要设计几层就用num_layers参数。构建的时候直接用LSTM单元*num_layers。
def lstm_cell(model = 'lstm', rnn_size = 128, num_layers = 2, keep_prob=0.8): if model=='lstm': cell_func=tf.contrib.rnn.BasicLSTMCell elif model=='gru': cell_func=tf.contrib.rnn.GRUCell elif model=='rnn': cell_func=tf.contrib.rnn.BasicRNNCell cell=cell_func(rnn_size, state_is_tuple = True) return tf.contrib.rnn.MultiRNNCell( [tf.contrib.rnn.DropoutWrapper(cell, output_keep_prob=keep_prob)]*num_layers, state_is_tuple=True)
看起来这样的方式也没问题,可是一运行就报错,维度不匹配。后来google之,有人碰到过同样的问题点击打开链接
大概的意思是[LSTM单元]*layers的方式是将LSTM单元做复制,所以参数维度是完全一致的。而for循环构建的多层LSTM是独立的每层有自己的参数。在我构建时间序列数据的时候,第一个LSTM单元的输入数据是[5,1],输出[5,hiddensize]。第二个单元的输入就变成了[5,hiddensize],输出[5,hiddensize]。明显输入的参数维度是不一样的,所以会报错。除非把第一个LSTM单元的输入也改成[5,hiddensize]
2,全连接的构建。使用tflayers还是挺方便的,用法和keras很像,是一个比较高级的API。使用的时候只需要把注意放在输入输出和function的参数上。不过非核心的Tensorflow函数不同的版本变化挺大的(其实要说起来Tensorflow中基础的函数变化也挺大的。。。)。一开始也是参考网上的代码,发现好多参数都不能用了,activation,dropout什么的都不能用。然后看源代码,stack是调用了layer函数,layer函数能用的参数是下面截图的那些。所以activation现在的参数名字变成了activation_fn。可是dropout呢?还是不在参数里面啊,后来发现dropout变成了一个单独的函数。这个估计也是模仿keras?
3,定义损失函数,梯度
input_data=tf.placeholder("float", shape=[None, 5,1])
input_label=tf.placeholder("float", shape=[None, 1])
###定义LSTM
rnncell=lstm_cell()
initial_state = rnncell.zero_state(batch_size, tf.float32)
output, state = tf.nn.dynamic_rnn(rnncell, inputs=input_data, initial_state=initial_state, time_major=False) ##LSTM的结果
###LSTM结果输入dnn
dnn_out=dnn_stack(output[:,-1,:],layers={'layers':[32,16]}) ##
loss=tf.reduce_sum(tf.pow(dnn_out-input_label,2)) ##平方和损失
learning_rate = tf.Variable(0.0, trainable = False)
tvars = tf.trainable_variables()
grads, _ = tf.clip_by_global_norm(tf.gradients(loss, tvars), 5) ##计算梯度
optimizer = tf.train.AdamOptimizer(learning_rate)
train_op = optimizer.apply_gradients(zip(grads, tvars))
构建好LSTM后需要给它一个初始值,一般用0有一些特别的模型会把初始值放进模型里做训练。需要注意的是初始值需要参数batch_size,这个玩意坑了我一把。在训练的时候我是设了batchsize=32的,后来拿训练好的模型做预测是没有batchsize的,然后没把batchsize改过来于是一直报错。不过initial_state这个参数在tf.nn.dynamic_rnn不是必需的,可以不设置这样就避免出现我上面的尴尬了。
这里比较重要的是要弄清楚LSTM的输出,这里使用的是tf.nn.dynamic_rnn。在别人的代码里可能还会看到tf.contrib.rnn.static_rnn。这个函数在最新的Tensorflow中已经没有了,在1.1版本里是有的。tf.nn.dynamic_rnn默认的输入数据tensor就是上面我们定义的[batchsize,timestep,input],参数time_major可以用来控制输入形式,True时输入tensor为[timestep,batchsize,input]。有说法timestep放再第一维训练速度会更快,我没有验证不知道真假。
上面在介绍LSTM的时候说了输入有h(单元的输出),c(长期记忆)两个。h就是对应代码里面的output。output里面保存着的是最后一层LSTM每一个单元的输出结果,shape为[batchsize,timestep,hiddensize],state里面保存的是最后一个单元的输出和长期记忆状态,shape均为[batchsize,hiddensize]。官网上也有介绍:
所以要取出最后一个LSTM单元的输出结果的话就是output[:,-1,:]或者state[-1][1]。需要注意的是state会存下每一层LSTM的最后一个单元的状态,所以构建了多少层LSTM就有多少层的状态,state[-1]就是最后一层的状态。而output只有输出层也就是最后一层的输出结果。
需要做回归所以选了平方和损失,然后tf.gradient计算梯度,在tf.gradient前面还套了一层clip_by_global_norm,它的作用是将梯度限制在一个范围内,防止出现梯度消失或者梯度爆炸。使用了clip_by_global_norm的更新公式:
t_list[i] * clip_norm /max(global_norm, clip_norm)
clip_norm是人为设置的一个参数,上面的代码里面设置为5,global_norm是所有参数梯度平方和开根号。从公式来看它最大的作用其实是防止梯度太大的时候引起震荡。梯度越大t_list乘以的缩放因子越小,而当梯度小于clip_norm的时候其实就是直接更新梯度,缩放因子等于1了。
训练和预测过程下一篇写吧。
第二篇链接,训练和预测:https://blog.csdn.net/zhxchstc/article/details/79268839
相关推荐
- win10版本回退(win10回退到以前版本)
-
如果你想在Windows10系统中回退到上一个版本,可以按照以下步骤进行操作:1.打开设置:点击Windows开始按钮,然后点击屏幕左侧的“设置”图标,或者使用键盘快捷键Win+I打开设置。2...
- 营业厅一个路由器多少钱(上门更换路由器收费吗)
-
移动免费装宽带活动全国都在搞,不过免费是有“门槛”的。以我所在的地区为例,只有月费在78元及以上的大流量套餐用户,才可以享受免费安装移动的宽带。月费越高,宽带的速率也越高,148元档可以安装200M的...
- win10从u盘启动怎么设置(win10怎么从u盘启动电脑)
-
1.回到桌面。点击开始徽标,点击开始菜单左侧的设置。2.设置界面点击更新和安全。3.进入更新和安全界面,点击左侧的恢复选项。4.进入恢复界面,点击高级启动下面的立即重新启动。5.插入自己的U盘,等待...
- 系统大全网站(系统大全网站推荐)
-
下载时发生错误可能是以下原因:1.你的网速过慢,网页代码没有完全下载就运行了,导致不完整,当然就错误了。请刷新。2.网页设计错误,导致部分代码不能执行。请下载最新的遨游浏览器。3.你的浏览器不兼容导致...
- win10官方启动盘(win10官方启动盘怎么用)
-
1、在开始菜单搜索“设置”,打开“设置”;2、点击“更新与安全”,在左侧菜单栏点击“恢复”;3、点击“启动项”,在弹出的窗口中会显示当前可以启动的项目,点击“编辑”;4、在打开的“编辑启动项”窗口中,...
- win10系统安装不了(win10 安装不了)
-
电脑装不上win10系统可能是因为以下几个原因导致的原因一:win10安装文件不对我们在安装win10之前,要确保下载到安装包真实可用的,否则安装肯定会有问题,建议下载安全可靠的安装包!原因二:系统文...
- 国内dns哪个最快(dns开启好还是关闭好)
-
移动dns设置首选114.114.114.114,它又好又快。首选DNS和备用DNS都是一种域名系统,这两种域名系统有着先后之分,如果在首选DNS正常的情况下,就用首选DNS地址。当首选DNS服务器出...
- winxp安装盘(winxp系统安装)
-
xp系统安装步骤如下1、将下载的xp系统iso压缩包文件下载到C盘之外的分区,比如下载到D盘,右键使用WinRAR等工具解压到当前文件夹或指定文件夹,不能解压到C盘和桌面,否则无法安装;?2、解压之后...
- 现在的win11稳定了吗(win11稳定嘛)
-
windows10更稳定,由于win11刚刚推出没多久,稳定差不够好,兼容性也有待提升,无论是应用还是游戏都会遇到不明程度的问题,因此,在日常的使用过程中,我们还是应当以稳定性为优先,选择win10是...
- xp安装包下载到手机(xp系统安装包)
-
手机是基于ARM架构的处理器,而WindowsXP是基于x86架构的操作系统,因此无法直接在手机上安装WindowsXP。除非您的手机是使用Intel处理器,但这种情况非常罕见。如果您需要在手机上...
- 如何查看硬盘序列号(windows如何查看硬盘序列号)
-
1.打开开始菜单栏,输入【cmd】点击【确定】;2.在命令窗口依次输入【diskpart】-【listdisk】-【selectdisk0】;3.选好要查看的硬盘后,接着输入【detaildi...
- 虚拟机安装win7教程(虚拟机安装win7教程图解)
-
1.首先,下载并安装虚拟机软件,如VMwareWorkstation、VirtualBox等。2.打开虚拟机软件,创建一个新的虚拟机。3.在创建虚拟机的过程中,选择安装Windows7专业版的IS...
- 系统脱敏法的操作程序如何
-
系统脱敏疗法(systematicdesensitization)又称交互抑制法,是由美国学者沃尔普创立和发展的。这种方法主要是诱导求治者缓慢地暴露出导致神经症焦虑、恐惧的情境,并通过心理的放松状态...
- 闪迪u盘低级格式化工具(闪迪u盘格式化分配单元大小)
-
闪迪U盘格式化后速度变慢的可能原因及解决方法如下:文件系统问题:格式化时选择的文件系统类型可能会影响U盘的性能。常见的文件系统类型包括FAT32、NTFS和exFAT等。如果文件系统类型不合适,可能会...
- psd文件下载(psd格式下载网站)
-
1、在photoshop中,不能通过置入的方法来加载PSD文件,因为,通过置入的方法加载PSD文件,它是以合并图层的方法把PSD文件加入,这样,就失去了PSD文件的所有图层信息。 2、在文档中想...
欢迎 你 发表评论:
- 一周热门
-
-
抖音上好看的小姐姐,Python给你都下载了
-
全网最简单易懂!495页Python漫画教程,高清PDF版免费下载
-
Python 3.14 的 UUIDv6/v7/v8 上新,别再用 uuid4 () 啦!
-
飞牛NAS部署TVGate Docker项目,实现内网一键转发、代理、jx
-
python入门到脱坑 输入与输出—str()函数
-
宝塔面板如何添加免费waf防火墙?(宝塔面板开启https)
-
Python三目运算基础与进阶_python三目运算符判断三个变量
-
(新版)Python 分布式爬虫与 JS 逆向进阶实战吾爱分享
-
失业程序员复习python笔记——条件与循环
-
系统u盘安装(win11系统u盘安装)
-
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)
