import shutil
import jieba
import pdb
from sklearn.feature_extraction.text import TfidfVectorizer

from sklearn import feature_extraction
from sklearn.feature_extraction.text import TfidfTransformer
from sklearn.feature_extraction.text import CountVectorizer

corpus=[word for word in jieba.cut("　　“啪啦啪啦……”满地都是盛开的红花朵。按照习俗，我们要上去踩，并且要高高兴兴的踩，这寓意着一年的好兆头。踩完之后就吃饭，吃完饭便要道附近的寺庙上香。　　今天是一个好日子，因为爸爸要给我买一只小狗，我们坐上车子前往宠物店。")]
vectorizer=CountVectorizer()#该类会将文本中的词语转换为词频矩阵，矩阵元素a[i][j] 表示j词在i类文本下的词频 
transformer=TfidfTransformer()#该类会统计每个词语的tf-idf权值
tfidf=transformer.fit_transform(vectorizer.fit_transform(corpus))#第一个fit_transform是计算tf-idf，第二个fit_transform是将文本转为词频矩阵
weight=tfidf.toarray()#将tf-idf矩阵抽取出来，元素a[i][j]表示j词在i类文本中的tf-idf权重
word=vectorizer.get_feature_names()#获取词袋模型中的所有词


from sklearn.cluster import KMeans
mykms=KMeans(n_clusters=10)
y=mykms.fit_predict(weight)
for i in range(0,10):
    label_i=[]
    for j in range(0,len(y)):
        if y[j]==i:
            label_i.append(corpus[i])
    print('label_'+str(i)+':'+str(label_i))
print()