from xgboost import XGBClassifier
import numpy as np

# XGBboost 模型参数调优
# 1.max_depth 弱学习器决策树的最大深度，默认为3
# 2.n_estimatros :弱学习器的个数，或者叫做弱学习器得到最大迭代次数，默认为100
# 3.learnling_rate 学习率 也称之为每个弱学习器的权重缩减系数，取值范围为（0,1】，取值较小意味着达到一定的学习效果，需要更多迭代次数和更多的弱学习器
# ，默认为0.1 。通常我们用学习率和弱学习器的最大迭代次数一起来决定算法的拟合效果，所以这两个参数n_estimators和learning_rate要一起调参。

X = np.array([[1,2],[3,4],[5,6],[7,8],[9,10]])
y = [0,0,0,1,1]

model = XGBClassifier()
model.fit(X,y)

print(model.predict([[5,5]]))