import random
import numpy as np
# 使用基于类目特征的朴素贝叶斯
from sklearn.naive_bayes import  CategoricalNB
from sklearn.model_selection import train_test_split

# 模拟数据
rng = np.random.RandomState(1)
# 随机生成600个100维的数据，每一维的特征都是[0,4]之前的整数
X = rng.randint(5,size=(600,100))
y = np.array([1,2,3,4,5,6]*100)
data = np.c_[X,y]
# X和y进行整体打散
random.shuffle(data)
X = data[:,:-1]
y = data[:,-1]
X_train,X_test,y_train,y_test = train_test_split(X,y,test_size=0.2,random_state=0)

clf = CategoricalNB(alpha=1)
clf.fit(X_train,y_train)
acc = clf.score(X_test,y_test)
print("Test Acc : %.3f" % acc)

# 随机数据测试，分析预测结果，贝叶斯会选择概率最大的预测结果
# 比如这里的预测结果是6，6对应的概率最大，由于我们是随机数据
# 读者运行的时候，可能会出现不一样的结果。
x = rng.randint(5, size=(1,100))
print(clf.predict_proba(x))
print(clf.predict(x))