基于Tensorflow框架的BP神经网络回归小案例--预测跳高

时间:2019-04-20
本文章向大家介绍基于Tensorflow框架的BP神经网络回归小案例--预测跳高,主要包括基于Tensorflow框架的BP神经网络回归小案例--预测跳高使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

(案例):我们将14组国内男子跳高运动员各项素质指标作为输入,即(30m行进跑,立定三级跳远,助跑摸高,助跑4-6步跳高,负重深蹲杠铃,杠铃半蹲系数,100m,抓举),将对应的跳高成绩作为输出,通过对14位选手的数据训练建立模型,预测第15位选手的跳高成绩。
待预测样本a=[[3.0,9.3,3.3,2.05,100,2.8,11.2,50]]
import tensorflow as tf
import pandas as pd
import numpy as np
from sklearn.preprocessing import MinMaxScaler

构造数据:14个样本,8个特征1个标签
x=[[3.2,3.2,3,3.2,3.2,3.4,3.2,3,3.2,3.2,3.2,3.9,3.1,3.2],
[9.6,10.3,9,10.3,10.1,10,9.6,9,9.6,9.2,9.5,9,9.5,9.7],
[3.45,3.75,3.5,3.65,3.5,3.4,3.55,3.5,3.55,3.5,3.4,3.1,3.6,3.45],
[2.15,2.2,2.2,2.2,2,2.15,2.14,2.1,2.1,2.1,2.15,2,2.1,2.15],
[140,120,140,150,80,130,130,100,130,140,115,80,90,130],
[2.8,3.4,3.5,2.8,1.5,3.2,3.5,1.8,3.5,2.5,2.8,2.2,2.7,4.6],
[11,10.9,11.4,10.8,11.3,11.5,11.8,11.3,11.8,11,11.9,13,11.1,10.85],
[50,70,50,80,50,60,65,40,65,50,50,50,70,70]]
y=[[2.24],[2.33],[2.24],[2.32],[2.2],[2.27],[2.2],[2.26],[2.2],[2.24],[2.24],[2.2],
[2.2],[2.35]]

获取数据集
x_t=np.array(x,dtype=‘float32’).T #[148]
y_true=np.array(y,dtype=‘float32’) #[14
1]

将特征数据最值归一,范围在(0,1)之间
mm=MinMaxScaler() #实例化
std=mm.fit(x_t) #训练模型
x_true=std.transform(x_t) #转化
print(x_true)
print(y_true)

通过占位符,预定义输入X,输出Y
即输入层8*1个神经元,输出层1个神经元

X=tf.placeholder(tf.float32,[None,8])
Y=tf.placeholder(tf.float32,[None,1])

随机数列生成,创建隐含层的神经网络,隐含层4个神经元
truncated_normal:选取位于正态分布方差在0.1附近的随机数据

w1=tf.Variable(tf.truncated_normal([8,4],stddev=0.1))
b1=tf.Variable(tf.zeros([4]))

w2=tf.Variable(tf.zeros([4,1]))
b2=tf.Variable(tf.zeros([1]))
relu,为激活函数,增加非线性关系,隐藏层和输出层的计算
L1=tf.nn.relu(tf.matmul(X,w1)+b1)
y_pre=tf.matmul(L1,w2)+b2

计算损失函数:均方误差
loss=tf.reduce_mean(tf.cast(tf.square(Y-y_pre),tf.float32))

梯度下降优化损失函数,学习率过大容易导致权重非常大,会出现nan值
train_op=tf.train.GradientDescentOptimizer(0.01).minimize(loss)

初始化变量
init_op=tf.global_variables_initializer()

创建一个saver,用来保存训练模型
saver=tf.train.Saver()

开启回话
with tf.Session() as sess:
sess.run(init_op)
训练模型15次
for i in range(1,300): #控制训练批次
for j in range (len(y_true)):#控制每批次训练的样本数
sess.run(train_op,feed_dict={X:[x_true[j,:]],Y:[y_true[j,:]]})#[[]]是为了匹配占位的类型
输出每次训练的损失
print(‘第%s批次第%s个样本训练的损失为:%s,真实值为:%s,预测值为:%s’% (i,j+1,
sess.run(loss, feed_dict={X:[x_true[j,:]],Y:[y_true[j,:]]}),
y_true[j,:],
sess.run(y_pre,feed_dict={X:[x_true[j,:]],Y:[y_true[j,:]]})))

保存模型:需要在会话里完成(注意缩进代码)
saver.save(sess,’./BP_demo/BP_model’)
加载模型,预测15号选手的跳高成绩
saver.restore(sess,’./BP_demo/BP_model’)
样本原始数据
a = [[3.0,9.3,3.3,2.05,100,2.8,11.2,50]]
获取测试样本
x_test=np.array(a,dtype=‘float32’)
将数据最值归一
x_test=std.transform(x_test)
print(‘15号选手的跳高成绩预测值为:’, sess.run(y_pre,feed_dict={X:x_test})

结果:

第299批次第11个样本训练的损失为:0.00016767633,真实值为:[2.24],预测值为:[[2.227051]]
第299批次第12个样本训练的损失为:1.5376372e-06,真实值为:[2.2],预测值为:[[2.19876]]
第299批次第13个样本训练的损失为:0.00062711653,真实值为:[2.2],预测值为:[[2.2250423]]
第299批次第14个样本训练的损失为:0.008744326,真实值为:[2.35],预测值为:[[2.2564888]]
15号选手的跳高成绩预测值为: [[2.1450984]]

问题:
只是简单实现数据预测,误差还是较大,有更好的优化方法,欢迎大家一起来分享哦!