// 面试题库
export const problemLists = [
  {
    id: 1,
    uid: 3,
    name: "1. 简单讲下图像数据增强",
    content:
      "**图像数据增强主要通过形状变换（空间变换）和颜色空间变换**\n常用的效果比较好的有以下几种方法\n- 1. 直方图均衡化轮廓增强\n- 2. 轮廓增强\n- 3. 变换操作\n- 4. HSV色彩转换\n- 5. CopyPaste\n- 6. MixUp",
  },
  {
    id: 2,
    uid: 3,
    name: "2. Soble算子的特点，卷积核是什么",
    content:
      "Sobel算子是一种用于图像边缘检测的卷积核，原理基于图像中的灰度变化。它包含水平和垂直两个卷积核，分别用于检测图像中的水平和垂直边缘。\n垂直卷积核\n-1 -2 -1\n 0  0  0\n 1  2  1\n水平卷积核\n-1  0  1\n-2  0  2\n-1  0  1",
  },
  {
    id: 3,
    uid: 3,
    name: "3. 对于黑夜的目标、比较少的目标，如何做轮廓数据增强，提高精度",
    content:
      "有两种思路：整个图来增强【首选】、针对ROI区域来增强，实际做法为先对原图像较暗的数进行放大，然后直方图均衡化达到轮廓增强的效果",
  },
  {
    id: 4,
    uid: 3,
    name: "4. 有哪些高通滤波和低通滤波，低通滤波和高通滤波的作用分别是什么",
    content:
      "低通滤波器有，均值滤波器、高斯滤波器，中值滤波，方框滤波，主要是平滑图像去除噪点。高通滤波有拉普拉斯算子，sobel算子，canny算子算不上严格的高通滤波，高通滤波主要是突出图像中的边缘，常用于边缘检测",
  },
  {
    id: 5,
    uid: 3,
    name: "5. Canny算子的原理",
    content:
      "- 1. 使用高斯滤波器，以平滑图像，滤除噪声。\n- 2. 使用sobel算子计算图像中每个像素点的梯度强度和方向。\n- 3. 应用非极大值（Non-Maximum Suppression）抑制，以消除边缘检测带来的杂散响应\n- 4. 应用双阈值（Double-Threshold）检测来确定真实的和潜在的边缘。\n- 5. 通过抑制孤立的弱边缘最终完成边缘检测",
  },
  {
    id: 6,
    uid: 3,
    name: "6. 边缘检测和轮廓检测的区别，哪些常见的边缘检测算子",
    content:
      "边缘检测和轮廓检测是两件事，轮廓检测是获取轮廓，物体的外部边界，边缘检测通常指获取图像中像素值变化较大或梯度较大的区域。常见的边缘检测算子有sobel，canny，拉普拉斯",
  },
  {
    id: 7,
    uid: 3,
    name: "7. 简述下IOU的非极大值抑制NMS（Non-Maximum Suppression）流程",
    content:
      "- 1. **按照检测框的得分排序**\n- 2. **选择得分最高的框**\n- 3. **移除与选定框重叠较高的框**\n- 4. **最终输出经过非极大值抑制的结果**",
  },
  {
    id: 8,
    uid: 1,
    name: "1. KNN和K-Means的区别",
    content:
      "KNN是一种可以应用于数据分类和预测（回归）的算法，监督学习算法，原理是找到离label最近K个邻居样本的距离，然后投票\nK-Means是一种聚类算法，无监督学习，找到k个不同簇的中心点，计算的是均值，使得每个样本点\n离其簇中心点距离最短",
  },
  {
    id: 9,
    uid: 1,
    name: "2. MSE是什么 ，常用于什么问题",
    content:
      "MSE代表均方误差（Mean Squared Error），万能损失函数，通常用于回归问题",
  },
  {
    id: 10,
    uid: 1,
    name: "3. 交叉熵是什么，二元交叉熵是什么，似然函数是什么，逻辑回归是什么，他们有什么关系，怎么用的",
    content:
      "交叉熵（Cross-Entropy）是一种用于度量两个概率分布之间差异的概念，交叉熵经常用来衡量模型的预测与实际情况之间的差异。\n二元分类问题中，我们把交叉熵叫做二元交叉熵，公式如下\n![image.png](https://ai-document-1322767844.cos.ap-guangzhou.myqcloud.com/ai/20240125211001.png)\n\n似然函数是关于概率分布的函数，公式如下\n![image.png](https://ai-document-1322767844.cos.ap-guangzhou.myqcloud.com/ai/20240125210448.png)\n逻辑回归是一种解决分类问题的算法，常用于解决二分类问题\n交叉熵是似然函数的负对数形式，我们可以通过求交叉熵的极小值来获取对数似然函数的最大值，也就是似然函数的最大值\n交叉熵通常用作损失函数。",
  },
  {
    id: 11,
    uid: 1,
    name: "4. 1x1卷积的作用",
    content:
      "- 1x1卷积，不会改变特征图的h, w\u000b\n- 1x1卷积可以改变特征图的数量。大家都叫升维或者降维，但实际上不改变h、w，dim也不改变，只是改变了输出的channel，改变的是shape\n- 如果1x1输出的channel变少时，参数量和计算量也在下降\n- 增加了非线性，增加了网络的表达能力\n- 空间信息的沟通和融合（+）\n- 能够起到全连接的作用",
  },
  {
    id: 12,
    uid: 1,
    name: "5. 残差的解释",
    content:
      "- 恒等映射。网络不会退化（但是也一不更好）\n- H(x) = x + F(x)，残差会使得W（w为F(x)的w）大多为0，网络更稀疏\n- 可以缓解梯度消失（不是解决了梯度消失的问题）。从反向传播求导这个层面，一个接近0连乘就完了",
  },
  {
    id: 13,
    uid: 1,
    name: "6. 通常说来L1比L2更稀疏，为什么我们平时不用L1而是L2？",
    content:
      "要视目前训练的结果而来评估，要更稀疏我可以用L1（过拟合较严重）,在【通道剪枝】的时候，更喜欢选择L1。\n- 因为L1的梯度值恒等于1或者-1，下降的力度是恒定的；\n- 而L2下降力度（因为损失w^2)，当w值大的时候下降力度更大，w小的时候，下降力度小一点，过程更平滑，更有可能接近全局最优。所以平时更希望用L2。\n- L1绝对值的导数在0的时候不可导。",
  },
  {
    id: 14,
    uid: 1,
    name: "7. 为什么L1比L2收敛更快",
    content:
      "- **稀疏性**：L1正则化的一个显著特点是可以使得一部分权重为零，减少模型的复杂度。收敛快\n- **权重更新的速度**：L1正则化的梯度是权重的符号，不受权重影响，在权重小的时候，权重更新更快",
  },
  {
    id: 15,
    uid: 1,
    name: "8. 归一化有哪些方式",
    content:
      "- 1/255\n- 大小归一化\n- 标准化（Z-score正态分布）\n- BN/IN/GN/LN\n- Softmax/Sigmoid",
  },

  {
    id: 16,
    uid: 2,
    name: "1. 卷积核的数量特点",
    content:
      "- 每一层卷积核数量一般为2的倍数\n- 卷积核的数量随着层次的增加，呈2的倍数在增长（只是一个参考） 64-》128-》256-》512-》1024-》2048",
  },
  {
    id: 17,
    uid: 2,
    name: "2. 卷积核的大小怎么选",
    content: "- 一般选择3 \\* 3的卷积核或者1\\*1的卷积核",
  },
  {
    id: 18,
    uid: 2,
    name: "3. 块的概念",
    content:
      "- 通常用于描述网络的模块或层的组合，通俗理解就是卷积层\n- 一般从最后一层开始砍",
  },
  {
    id: 19,
    uid: 2,
    name: "4. 为什么用3\\* 3的卷积核代替7\\* 7 的卷积核",
    content:
      "- 3个3\\* 3的卷积核就可以替代一个7\\* 7的卷积核，感受野一样，换句话说就是效果一样\n- 能减少30%的计算参数",
  },
  {
    id: 20,
    uid: 2,
    name: "5. 多尺度特征信息融合（Inception）",
    content: "使用不同的卷积核，然后concat来实现多尺度信息的融合",
  },
  {
    id: 21,
    uid: 2,
    name: "6. 利用其它网络的结构怎么提高自己的准确率",
    content: "B网络，在A网络的效果有提升，分析的原因。B网络的结构Copy到A网络中",
  },
  {
    id: 22,
    uid: 2,
    name: "7. GoogleNet 的优化演变历程",
    content:
      "- GoogleNetV1: Inception，多尺度特征信息融合\n-  GoogleNetV2(推荐首先考虑。有GPU): 把v1中的5x5卷积，换成2个3x3。 计算量和参数量进一步减少。用了BN批归一化。\n-  GoogleNetV3: 空间可分离卷积。3x3换成，1x3和3x1，将w和h分离了\n- GoogleNetV4: v3的基础上加上了残差",
  },
  {
    id: 23,
    uid: 2,
    name: "8. Resnet 的由来，解决了什么问题，核心原理是什么",
    content:
      "- 网络层次越深，性能应该越好！当时实验证明，随着网络层次的增加网络的效果反而变差\n-  ResNet解决了网络退化问题，不是解决了梯度消失的问题\n- 核心原理是恒等映射",
  },
  {
    id: 24,
    uid: 2,
    name: "9. 残差的解释",
    content:
      "- 恒等映射。网络不会退化（但是也一不更好）\n- H(x) = x + F(x)，残差会使得W（w为F(x)的w）大多为0，网络更稀疏\n- 可以缓解梯度消失（不是解决了梯度消失的问题）。从反向传播求导这个层面，一个接近0连乘就完了",
  },
  {
    id: 25,
    uid: 2,
    name: "10. 欠拟合和过拟合在训练数据和测试数据上如何表现的，拟合图像上又如何解释",
    content:
      "![image.png](https://ai-document-1322767844.cos.ap-guangzhou.myqcloud.com/ai/20240120212124.png)\n\n![image.png](https://ai-document-1322767844.cos.ap-guangzhou.myqcloud.com/ai/20240120213556.png)",
  },
  {
    id: 26,
    uid: 2,
    name: "11. 过拟合如何处理",
    content:
      "- 增加训练的数据集\n\t- 收集更多的数据\n\t- 数据增强： \n- 限制模型的复杂度\n\t- 减少层数/节点数\n\t- 正则化，L1/L2，通常用L2，L1正则化做特征选择（10个w中8个w为0，数据稀疏，所以能做特征选择，只选择后面两个w对应的特征） ![](https://ai-document-1322767844.cos.ap-guangzhou.myqcloud.com/ai/20240120210817.png)\n- Dropout，训练一个模型函数系列（10杆抢去打一个目标），能冲出鞍点\n- 更换优化器，通常先用Adam，后期用sgd\n- 早停，实际做起来很难，一般保存两个best和latest权重\n- K-fold cross-validation 交叉验证，让验证集评价的准确率更加接近真实情况，减少了噪声（样本特有特有特征）的学习\n- 指数移动平均（Exponential Moving Average），影子w，影子w的移动比w要慢，W= α \\* w+(1-α) *w_真，指数是什么，好比w2 =w1 \\*0.9 \\*0.9 ，w3 =w2\\*0.9=w1\\*0.9\\*0.9 。",
  },
  {
    id: 27,
    uid: 2,
    name: "12. 怎么调超参数提高模型预测的准确率",
    content:
      "- batch_size\n- 学习率\n\t- 恒定\n\t- 从大到小，指数衰减\n\t- warmup\n\t- 余弦",
  },
  {
    id: 28,
    uid: 2,
    name: "13. 什么是欠拟合，怎么处理",
    content: "- 样本有效特征较少 \n- 模型复杂程度较低\n- 训练时间不够",
  },
];
