import tensorflow as tf
print(tf.__version__)
from tensorflow.examples.tutorials.mnist import input_data
#载入数据集
mnist = input_data.read_data_sets("MNIST_data",one_hot=True)
#每个批次的大小
batch_size = 100
#计算一共需要多少个批次
n_batch = mnist.train.num_examples // batch_size
 
#定义两个占位符（placeholder）
x = tf.placeholder(tf.float32,[None,784])
y = tf.placeholder(tf.float32,[None,10])
 
#创建一个简单的神经网络
w = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
prediction = tf.nn.softmax(tf.matmul(x,w)+b)
 
#方法一：二次代价函数
#loss = tf.reduce_mean(tf.square(y - prediction))
 
#方法二：交叉熵代价函数（cross-entropy）的使用,加快收敛速度，迭代较少次数就能达到满意的效果
loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(labels=y, logits=prediction))
 
#优化器的使用
 
#方法一：使用梯度下降法
train_step = tf.train.GradientDescentOptimizer(0.2).minimize(loss)
 
#方法二：使用Adam方法
#train_step = tf.train.AdamOptimizer(1e-2).minimize(loss)
 
 
 
#初始化变量
init = tf.global_variables_initializer()

 
#结果存放在一个布尔型列表中
#equal中的两个值，若是一样，则返回True，否则返回False。argmax函数：返回最大值所在的索引值，即位置
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(prediction,1))
#求准确率
#将上一步的布尔类型转化为32位浮点型，即True转换为1.0，False转换为0.0，然后计算这些值的平均值作为准确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
 
#定义会话
with tf.Session() as sess:
    #初始化变量
    sess.run(init)
    #迭代21个周期
    for epoch in range(21):
        #n_batch:之前定义的批次
        for batch in range(n_batch):
            #获得100张图片，图片的数据保存在batch_xs中，图片的标签保存在batch_ys中
            batch_xs,batch_ys = mnist.train.next_batch(batch_size)
            #使用Feed操作，此步执行训练操作的op，将数据喂给他
            sess.run(train_step,feed_dict = {x:batch_xs,y:batch_ys})
        #训练一个周期后就可以看下准确率，使用Feed方法，此步执行计算准确度的op操作，将其对应的参数喂给它
        acc = sess.run(accuracy,feed_dict = {x:mnist.test.images,y:mnist.test.labels})
        print("Iter " + str(epoch) + ",Testing Accuracy " + str(acc))
