# 搜索日志文件路径
original_datapath = r"D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\搜狗比赛数据\user_tag_query.10W.TRAIN"
#停词表路径
stopWordpath =  r"D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\哈工大停用词表.txt"
#进行数据清洗后的数据
cleaned_filepath = r'D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\search_log_after_cleaned.txt'
#搜索记录
searchRecordspath = r'D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\searchRecords.txt'
#种子关键字的所有结果的记录，是一个文件夹
resultdirBasepath = r'D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\搜索记录\\'
# 数据进行搜索种子关键字查找后结果文件保存路径根路径
#targetBasepath = r'D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\搜索记录\搜索结果\\'
# 对每条搜索记录分词之后的文件保存根路径
#fenciBasepath = r'D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\搜索记录\分词结果\\'
# 对每条搜索记录使用停词表分词之后的文件保存根路径
#fenci_stopdic_basepath = r'D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\搜索记录\停词分词结果\\'
# 对每条搜索记录分词之后的文件保存路径,就是result.txt加上空格
#MidWordKeyBasepath = r'D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\搜索记录\中介关键字结果\\'
#对于用户选择的中介词数量，选出权重在前面的中介词,对于分词进行了再处理，比如将中南大学，拆分为中南  大学，从而将大学作为中南的中介关键字
#MidKeyPath = r'D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\MidKey.txt'
#对于不同的中介关键词，选出权重最大为竞争关键词
CompKeyPath = r'D:\大学\大三\大三上\电子商务\电子商务与电子政务实验数据\python实验数据\CompKey.txt'