{
 "cells": [
  {
   "cell_type": "markdown",
   "metadata": {},
   "source": [
    "## 谁家那小谁 \n",
    "Adaboost选择分类器依赖弱分类器，然后把弱分类器集合起来，构成一个更强的最终分类器，所以应属于强分类器。Adaboost算法本身是通过改变数据分布来实现的，它根据每次训练集之中每个样本的分类是否正确，以及上次的总体分类的准确率，来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练，最后将每次得到的分类器，最后融合起来，作为最后的决策分类器。比如：1.先通过对N个训练样本学习得到第一个弱分类器（正确率不高），2，将分错的样本和其他的新数据一起构成一个新的N个寻来样本，通过对这个样本的学习得到第二个弱分类器，3。将1和2都分错的样本加上其他的新数据构成一个新的N 个训练样本，通过对这个样本的学习得到第三个弱分类器，4最终经过提升的强分类器。  \n",
    "优点：  \n",
    "1)Adaboost是一种有很高精度的分类器 2)可以使用各种方法构建子分类器,3)当使用简单分类器时，计算出的结果是可以理解的。而且弱分类器构造极其简单 4)简单，不用做特征筛选 5)不用担心overfitting(过度拟合)  \n",
    "缺点：  \n",
    "1)容易受到噪声干扰，这也是大部分算法的缺点  \n",
    "2)训练时间过长  \n",
    "3)执行效果依赖于弱分类器的选择  \n",
    "\n",
    "\n",
    "## 安振宇    \n",
    "AdaBoost选择分类器是弱分类器，原因为：在概率近似正确学习的框架中，强可学习与弱可学习是等价的。那么自然选择弱分类器可以在节约计算资源、存储资源的前提下，得到与选择强分类器相接近的效果。  \n",
    "\n",
    "\n",
    "## 太阳老公  \n",
    "AdaBoost是boosting(提升)方法的典型代表。那么从逻辑上讲，既然是提升，自然要选择弱分类器咯，不然怎么更好地“提升”!  \n",
    "\n",
    "\n",
    "## 皮的开心 \n",
    "Adaboost是一种迭代算法，其核心思想是针对同一个训练集训练不同的分类器(弱分类器)，然后把这 些弱分类器集合起来，构成一个更强的最终分类器(强分类器)。其算法本身是通过改变数据分布来实现的，它根据每次训练集之中每个样本的分类是否正确，以及上次的总体分类的准确率，来确定每个样本的权值。将修改过权值的新数据集送给下层分类器进行训练，最后将每次训练得到的分类器最后融合起来，作为最后的决策分类器。   \n",
    "\n",
    "## 、暖心向阳  \n",
    "弱学习器，大部分集成学习都是针对弱学习器，基学习器有时也被直接称为弱学习器。boosting本身就是将弱学习器提升为强学习器的算法   \n",
    "\n",
    "\n",
    "\n",
    "\n"
   ]
  },
  {
   "cell_type": "code",
   "execution_count": null,
   "metadata": {},
   "outputs": [],
   "source": []
  }
 ],
 "metadata": {
  "kernelspec": {
   "display_name": "Python 3",
   "language": "python",
   "name": "python3"
  },
  "language_info": {
   "codemirror_mode": {
    "name": "ipython",
    "version": 3
   },
   "file_extension": ".py",
   "mimetype": "text/x-python",
   "name": "python",
   "nbconvert_exporter": "python",
   "pygments_lexer": "ipython3",
   "version": "3.6.5"
  }
 },
 "nbformat": 4,
 "nbformat_minor": 2
}
