{
 "cells": [
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "第4周测验-深度神经网络的关键概念\n",
    "在实现前向传播和反向传播中使用的“cache”是什么？\n",
    "\n",
    "【 】用于在训练期间缓存成本函数的中间值。\n",
    "【★】 我们用它传递前向传播中计算的变量到相应的反向传播步骤，它包含用于计算导数的反向传播的有用值。\n",
    "【 】它用于跟踪我们正在搜索的超参数，以加速计算。\n",
    "【 】 我们使用它将向后传播计算的变量传递给相应的正向传播步骤，它包含用于计算计算激活的正向传播的有用值。\n",
    "the “cache” records values from the forward propagation units and sends it to the backward propagation units because it is needed to compute the chain rule derivatives.\n",
    "\n",
    "\n",
    "“cache”记录来自正向传播单元的值并将其发送到反向传播单元，因为需要链式计算导数。\n",
    "\n",
    "以下哪些是“超参数”？\n",
    "\n",
    "【★】隐藏层的大小n[l]n[l]\n",
    "【★】学习率α\n",
    "【★】迭代次数\n",
    "【★】神经网络中的层数L\n",
    "博主注：我只列出了正确选项。\n",
    "请注意：你可以查看Quora的这篇文章 或者 这篇博客.\n",
    "\n",
    "下列哪个说法是正确的？\n",
    "\n",
    "【★】 神经网络的更深层通常比前面的层计算更复杂的输入特征。\n",
    "【 】神经网络的前面的层通常比更深层计算输入的更复杂的特性。\n",
    "注意：您可以查看视频，我想用吴恩达的用美国有线电视新闻网的例子来解释这个。\n",
    "\n",
    "向量化允许您在L层神经网络中计算前向传播，而不需要在层(l = 1,2，…，L)上显式的使用for-loop（或任何其他显式迭代循环），正确吗？\n",
    "\n",
    "【 】正确\n",
    "【★】 错误\n",
    "请注意：在层间计算中，我们不能避免for循环迭代。\n",
    "博主注：请想一下输入的迭代次数的参数，在模型内部是用什么实现的？\n",
    "\n",
    "假设我们将n[l]n[l]的值存储在名为layers的数组中，如下所示：layer_dims = [n_x,4,3,2,1]。 因此，第1层有四个隐藏单元，第2层有三个隐藏单元，依此类推。 您可以使用哪个for循环初始化模型参数？\n",
    "\n",
    "for(i in range(1, len(layer_dims))):\n",
    "    parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01\n",
    "    parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01\n",
    "1\n",
    "2\n",
    "3\n",
    "下面关于神经网络的说法正确的是：.\n",
    "\n",
    "【★】层数L为4，隐藏层数为3。\n",
    "\n",
    "注意：输入层（L[0]L[0]）不计数。\n",
    "\n",
    "As seen in lecture, the number of layers is counted as the number of hidden layers + 1. The input and output layers are not counted as hidden layers.\n",
    "\n",
    "\n",
    "正如视频中所看到的那样，层数被计为隐藏层数+1。输入层和输出层不计为隐藏层。\n",
    "\n",
    "在前向传播期间，在层ll的前向传播函数中，您需要知道层ll中的激活函数（Sigmoid，tanh，ReLU等）是什么， 在反向传播期间，相应的反向传播函数也需要知道第ll层的激活函数是什么，因为梯度是根据它来计算的，正确吗？\n",
    "\n",
    "【★】 正确\n",
    "【 】错误\n",
    "During backpropagation you need to know which activation was used in the forward propagation to be able to compute the correct derivative.\n",
    "\n",
    "\n",
    "在反向传播期间，您需要知道正向传播中使用哪种激活函数才能计算正确的导数。\n",
    "\n",
    "有一些功能具有以下属性：\n",
    "\n",
    "(i) 使用浅网络电路计算函数时，需要一个大网络（我们通过网络中的逻辑门数量来度量大小），但是（ii）使用深网络电路来计算它，只需要一个指数较小的网络。真/假？\n",
    "\n",
    "【★】 正确\n",
    "【 】错误\n",
    "请注意：参见视频，完全相同的题。\n",
    "博主注：没有读懂题，直接机器翻译，你可以在下面的英文原版自己读一下。\n",
    "\n",
    "在2层隐层神经网络中，下列哪个说法是正确的？\n",
    "\n",
    "【★】W[1]W[1] 的维度为 (4, 4)\n",
    "【★】b[1]b[1] 的维度为 (4, 1)\n",
    "【★】W[2]W[2]的维度为 (3, 4)\n",
    "【★】b[2]b[2] 的维度为 (3, 1)\n",
    "【★】b[3]b[3] 的维度为 (1, 1)\n",
    "【★】W[3]W[3]的维度为 (1, 3)\n",
    "请注意：请参阅图片。\n",
    "博主注：找不到图片23333333。\n",
    "\n",
    "前面的问题使用了一个特定的网络，与层ll有关的权重矩阵在一般情况下，W[1]W[1]的维数是多少\n",
    "\n",
    "W[l]W[l]的维度是 (n[l]n[l],n[l−1]n[l−1])\n",
    "请注意：请参阅图片\n",
    "————————————————\n",
    "版权声明：本文为CSDN博主「何宽」的原创文章，遵循 CC 4.0 BY-SA 版权协议，转载请附上原文出处链接及本声明。\n",
    "原文链接：https://blog.csdn.net/u013733326/article/details/79868527"
   ]
  }
 ],
 "metadata": {
  "kernelspec": {
   "display_name": "Python 3",
   "language": "python",
   "name": "python3"
  },
  "language_info": {
   "codemirror_mode": {
    "name": "ipython",
    "version": 3
   },
   "file_extension": ".py",
   "mimetype": "text/x-python",
   "name": "python",
   "nbconvert_exporter": "python",
   "pygments_lexer": "ipython3",
   "version": "3.7.4"
  }
 },
 "nbformat": 4,
 "nbformat_minor": 2
}
