# -*- coding: utf-8 -*-

# 导入必要的工具包
# 独立调用xgboost或在sklearn框架下调用均可。
# 1. 模型训练：超参数调优
#     1. 初步确定弱学习器数目： 20分
#     2. 对树的最大深度（可选）和min_children_weight进行调优（可选）：20分
#     3. 对正则参数进行调优：20分
#     4. 重新调整弱学习器数目：10分
#     5. 行列重采样参数调整：10分
# 2. 调用模型进行测试10分
# 3. 生成测试结果文件10分

import xgboost as xgb

import pandas as pd
import numpy as np

dpath = './data/'
train = pd.read_csv(dpath + 'RentListingInquries_FE_train.csv')

train = train.sample(n=3000)

print train.describe()
print ">>"
print train.head(1)
print ">>"
print train.info()

train_X = train.drop("interest_level", axis=1)
train_y = train["interest_level"]

## 判断数据是否分布均匀
from matplotlib import pyplot
import seaborn as sns
sns.countplot(train_y);
pyplot.xlabel('target');
pyplot.ylabel('Number of interest');
pyplot.show()

train.to_csv(dpath + 'RentListingInquries_FE_train_sample.csv')



