先看下要做的內容,創建一元二次函數y=x平方-0.5,其中為了更符合散點圖模擬需要,在方程加噪點,以標準方差0.05行駛,如圖所示
折線圖
散點圖
下面我們要做的,是要計算機自動擬合出該散點圖的函數,畫出圖樣,如圖
下面,就通過TensorFlow來看如何做出這個樣子
在TensorFlow中,首先定義
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
?
#定義隱藏層
def add_layer(inputs,in_size,out_size,activation_function=None):
? ? Weights=tf.Variable(tf.random_normal([in_size,out_size])) ?#權值
? ? biases=tf.Variable(tf.zeros([1,out_size])+0.1) #偏置
? ? Wx_plus_b=tf.matmul(inputs,Weights)+biases ?#z=wx+b
? ? if activation_function is None:
? ? ? ? outputs=Wx_plus_b
? ? else:
? ? ? ? outputs=activation_function(Wx_plus_b)
? ? return outputs
?
#make up some real data
x_data=np.linspace(-1,1,300)[:,np.newaxis]#加維度
noise=np.random.normal(0,0.05,x_data.shape)#加噪點,標準方差0.05
y_data=np.square(x_data)-0.5+noise ? ?#y=square(x)-0.5+noise
?
#train_step所要輸入的值
xs=tf.placeholder(tf.float32,[None,1])
ys=tf.placeholder(tf.float32,[None,1])
###建立第一,二次隱藏層layer
###add_layer(inputs,in_size,out_size,activation_function=None)
l1=add_layer(xs,1,10,activation_function=tf.nn.relu)#激勵函數(activation_function)ReLU
prediction=add_layer(l1,10,1,activation_function=None)
?
#創建損失函數
loss=tf.reduce_mean(tf.reduce_sum(tf.square(ys-prediction),
? ? ? ? ? ? ? ?reduction_indices=[1]))
train_step=tf.train.GradientDescentOptimizer(0.1).minimize(loss)#梯度下降優化器,減少誤差,學習效率0.1
?
#important step
init=tf.initialize_all_variables()
sess=tf.Session()
sess.run(init)
?
#繪圖部分
fig=plt.figure()
ax=fig.add_subplot(1,1,1)
ax.scatter(x_data,y_data)
plt.ion()#不暫停
plt.show()
?
#學習1000步
for i in range(1000):
? ? sess.run(train_step,feed_dict={xs:x_data,ys:y_data})
? ? if i%50==0:
? ? ? ? #print(sess.run(loss,feed_dict={xs:x_data,ys:y_data})) #輸出誤差
? ? ? ? try:
? ? ? ? ? ? ax.lines.remove(lines[0])
? ? ? ? except Exception:
? ? ? ? ? ? pass
? ? ? ? ? ??
? ? ? ? prediction_value=sess.run(prediction,feed_dict={xs:x_data})
? ? ? ? lines=ax.plot(x_data,prediction_value,'r',lw=5)
? ? ? ? plt.pause(0.1)
輸出誤差截圖,每50次輸出一次,截圖如下
誤差逐漸遞減的截圖
這樣就完成了
---------------------?
作者:QianLingjun?
來源:CSDN?
原文:https://blog.csdn.net/wsljqian/article/details/77754878?
版權聲明:本文為博主原創文章,轉載請附上博文鏈接!