全连接神经网络

优质
小牛编辑
132浏览
2023-12-01

辅助阅读:TensorFlow中文社区教程 - 英文官方教程

代码见:full_connect.py

Linear Model

  • 加载lesson 1中的数据集
  • 将Data降维成一维,将label映射为one-hot encoding
def reformat(dataset, labels):
    dataset = dataset.reshape((-1, image_size * image_size)).astype(np.float32)
    # Map 0 to [1.0, 0.0, 0.0 ...], 1 to [0.0, 1.0, 0.0 ...]
    labels = (np.arange(num_labels) == labels[:, None]).astype(np.float32)
    return dataset, labels

TensorFlow Graph

  • 使用梯度计算train_loss,用tf.Graph()创建一个计算单元

    • 用tf.constant将dataset和label转为tensorflow可用的训练格式(训练中不可修改)
    • 用tf.truncated_normal生成正太分布的数据,作为W的初始值,初始化b为可变的0矩阵
    • 用tf.variable将上面的矩阵转为tensorflow可用的训练格式(训练中可以修改)
    • TensorFlow的Tutorial里有这样一句话:

    it is also good practice to initialize them with a slightly positive initial bias to avoid "dead neurons."

    所以init时value设置为0.1会比较好(恩,这也是黑魔法)

    • 用tf.matmul实现矩阵相乘,计算WX+b,这里实际上logit只是一个变量,而非结果
    • 用tf.nn.softmax_cross_entropy_with_logits计算WX+b的结果相较于原来的label的train_loss,并求均值
    • 使用梯度找到最小train_loss
    optimizer = tf.train.GradientDescentOptimizer(0.5).minimize(loss)
    
    • 计算相对valid_dataset和test_dataset对应的label的train_loss

    上面这些变量都是一种Tensor的概念,它们是一个个的计算单元,我们在Graph中设置了这些计算单元,规定了它们的组合方式,就好像把一个个门电路串起来那样

TensorFLow Session

Session用来执行Graph里规定的计算,就好像给一个个门电路通上电,我们在Session里,给计算单元冲上数据,That’s Flow.

  • 重复计算单元反复训练800次,提高其准确度

    • 为了快速查看训练效果,每轮训练只给10000个训练数据(subset),恩,每次都是相同的训练数据
    • 将计算单元graph传给session
    • 初始化参数
    • 传给session优化器 - train_loss的梯度optimizer,训练损失 - train_loss,每次的预测结果,循环执行训练
    with tf.Session(graph=graph) as session:
          tf.global_variables_initializer().run()
          for step in range(num_steps):
              _, l, predictions = session.run([optimizer, loss, train_prediction])
    
    • 值得注意的是,如果session.run的时候,不把optimizer fetch回来,optimizer是不会工作的
    • 在循环过程中,W和b会保留,并不断得到修正
    • 在每100次循环后,会用验证集进行验证一次,验证也同时修正了一部分参数
    valid_prediction.eval()
    
    • 最后用测试集进行测试
    • 注意如果lesson 1中没有对数据进行乱序化,可能训练集预测准确度很高,验证集和测试集准确度会很低

    这样训练的准确度为83.2%

SGD

  • 每次只取一小部分数据做训练,计算loss时,也只取一小部分数据计算loss

    • 对应到程序中,即修改计算单元中的训练数据,
      • 每次输入的训练数据只有128个,随机取起点,取连续128个数据:
    offset = (step * batch_size) % (train_labels.shape[0] - batch_size)
    batch_data = train_dataset[offset:(offset + batch_size), :]
    batch_labels = train_labels[offset:(offset + batch_size), :]
    
    • 由于这里的数据是会变化的,因此用tf.placeholder来存放这块空间
    tf_train_dataset = tf.placeholder(tf.float32,
                                            shape=(batch_size, image_size * image_size))
    tf_train_labels = tf.placeholder(tf.float32, shape=(batch_size, num_labels))
    
    • 计算3000次,训练总数据量为384000,比之前8000000少

    准确率提高到86.5%,而且准确率随训练次数增加而提高的速度变快了

神经网络

  • 上面SGD的模型只有一层WX+b,现在使用一个RELU作为中间的隐藏层,连接两个WX+b
    • 仍然只需要修改Graph计算单元为
        Y = W2 * RELU(W1*X + b1) + b2
    
    • 为了在数学上满足矩阵运算,我们需要这样的矩阵运算:
        [n * 10] = RELU([n * 784] · [784 * N] + [n * N]) · [N * 10] + [n * 10]  
    
    • 这里N取1024,即1024个隐藏结点
    • 于是四个参数被修改
    weights1 = tf.Variable(
              tf.truncated_normal([image_size * image_size, hidden_node_count]))
    biases1 = tf.Variable(tf.zeros([hidden_node_count]))
    weights2 = tf.Variable(
              tf.truncated_normal([hidden_node_count, num_labels]))
    biases2 = tf.Variable(tf.zeros([num_labels]))
    
    • 预测值计算方法改为
    ys = tf.matmul(tf_train_dataset, weights1) + biases1
    hidden = tf.nn.relu(ys)
    logits = tf.matmul(hidden, weights2) + biases2
    
    • 计算3000次,可以发现准确率一开始提高得很快,后面提高速度变缓,最终测试准确率提高到88.8%