# -*- coding: utf-8 -*-
"""
Created on Mon Dec 30 11:22:58 2019

@author: JimmyMo
"""

import tensorflow as tf
import numpy
import matplotlib.pyplot as plt

rng = numpy.random
learning_rate = 0.01 #这个用来控制每次走的远近
trainning_epochs = 1000 #epoch时期；表示要把全部训练数据过几遍，这里自然是1000遍
display_step = 50 #显示步长：每迭代50次显示一次

# Training Data
train_X = numpy.asarray([3.3,4.4,5.5,6.71,6.93,4.168,9.779,6.182,7.59,2.167,
                         7.042,10.791,5.313,7.997,5.654,9.27,3.1])
train_Y = numpy.asarray([1.7,2.76,2.09,3.19,1.694,1.573,3.366,2.596,2.53,1.221,
                         2.827,3.465,1.65,2.904,2.42,2.94,1.3])
#numpy.asarray（列表） 表示把列表转化成数组（array类型） 这个不是基本数据类型，他和
#list的区别在于，array中的元素必须是同一类型。
n_samples = train_X.shape[0] #shape是每个数组的自带功能， a.shape 会返回一个维度数组 （x, y）表示这个矩阵的维度

# tf Graph Input
X = tf.placeholder("float")
Y = tf.placeholder("float")
#
W = tf.Variable(initial_value=rng.randn(), name="weight")
b = tf.Variable(initial_value=rng.randn(), name="bias")

#定义变量 具体用法tf.Variable(initial_value, trainable=True, collections=None, validate_shape=True, name=None)
#对于现在的我来说只用知道第一个参数是必须的，控制变量的初值，最后一个参数变量的具体名字。
#这里我们显然可以看出使用了随机的方式赋予变量初值
#还有一点需要注意，不同与别的语言，tf的定义后是死的，用前必须激活。

# A = X * W + b
# Construct a linear model
activation = tf.add(tf.multiply(X, W), b) #相当于是wx + b
# Mean squared error
cost = tf.reduce_sum(tf.pow(activation-Y, 2))/(2 * n_samples) #L2 loss
#pow函数：次幂函数 原型是tf.pow(x, y, name=None)， 对于x中的每个元素求y次幂(y可以是矩阵，这样能使得x中不同元素有不同次幂)）
#reduce_sum降为求和函数：reduce_sum(arg1, arg2)其中arg1为矩阵，如果不填参数2那么就是矩阵中每个元素求和，如果arg2 为0就是把每列求和 压成一行
#arg2为1的话就是把行求和，压成一列

optimizer = tf.train.GradientDescentOptimizer(learning_rate).minimize(cost) #Gradient descent
# Initialize the variables (i.e. assign their default value) 激活变量
init = tf.global_variables_initializer()

print("begin")
#开始训练
with tf.Session() as sess:
    sess.run(init)
    # Fit all training data
    plt.plot(train_X, train_Y, 'ro', label = 'origin')
    plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label='Fitted line')
    plt.legend()
    for epoch in range(trainning_epochs):
# for i in range(a, b) 表示循环 i从a开始到b结束
# for i in range(number) 表示循环number次，i从0开始。
        for (x, y) in zip(train_X, train_Y):
# zip（a,b）表示把向量ab一一对应打包成点对。
            sess.run(optimizer, feed_dict = {X: x, Y: y})
#feed_dict 表示喂食器，它会把placeholder中的占位符赋予明确的值
#不同于variable变量这个 placeholder 需要在run的时候喂数据
            #display logs per epoch step
            if (epoch + 1) % display_step == 0:
                c = sess.run(cost, feed_dict = {X: train_X, Y: train_Y})
                #print ("Epoch:", '%04d' % (epoch+1), "cost=", '%.5f' % c, \
                #"W=", sess.run(W), "b=", sess.run(b))
        
        #training_cost = sess.run(cost, feed_dict = {X: train_X, Y: train_Y})
        #print ("Train cost = ", training_cost, "w = ", sess.run(W), "b = ", sess.run(b), '\n')
        #Graphic display
    plt.plot(train_X, train_Y, 'ro', label='Original data')
    plt.plot(train_X, sess.run(W) * train_X + sess.run(b), label='Fitted line')
    plt.legend()#显示图例
    plt.show()#显示绘图
    #经过测试发现show与legend都能显示图像，不过legend可以把标签也显示出来，所以就单独一张图来说legend更好
    #不过show有自己独特的地方，show展示图像完以后，下一次展示会重新出现一个图像，而legend则是把曲线加到同一幅图中