import re
import collections

#将读取到的所有word转换为小写
def words(text):
    return re.findall('[a-z]+', text.lower())

#统计所有的不重复的单词，并统计每个单词出现的次数
def train(features):
    model = collections.defaultdict(lambda: 1)
    for f in features:
        model[f] += 1
    return model

#返回从语料库生产的字典
NWORDS = train(words(open('big.txt').read()))

alphabet = 'abcdefghijklmnopqrstuvwxyz'

#枚举错误距离为1的单词，不需要在从语料库中校验，应为，如果该词存在，次数肯定大于一，如果不存在这等于一，所以无需校验
def edits1(word):
    n = len(word)
    return set([word[0:i] + word[i + 1:] for i in range(n)] +  # 记录所有删除一个字母所对应的‘单词’
               [word[0:i] + word[i + 1] + word[i] + word[i + 2:] for i in range(n - 1)] +  # 记录所有颠倒一个相邻字母的顺序的‘单词’
               [word[0:i] + c + word[i + 1:] for i in range(n) for c in alphabet] +  # 记录所有变更一个字母所对应的‘单词’
               [word[0:i] + c + word[i:] for i in range(n + 1) for c in alphabet])  # 记录所有插入一个字母所对应的‘单词’

#枚举错误距离为2的单词，也就是错误1次产生的单词在通过edits1错误一次即可，需要在语料库中校验，应为距离为2的会参生产太多的‘单词’，所以为了效率筛选一下
def known_edits2(word):
    return set(e2 for e1 in edits1(word) for e2 in edits1(e1) if e2 in NWORDS)

#遍历错误单词，如果在语料库出现的单词，则加入set中
def known(words):
    return set(w for w in words if w in NWORDS)

##如果known(set)非空, candidate 就会选取这个集合, 而不继续计算后面的，如果本身即不是正确单词，有没有从edits1和edits2中找到，这返回错误的单词本身
def correct(word):
    candidates = known([word]) or known(edits1(word)) or known_edits2(word) or [word]  #返回的是列表
    print(type(candidates),'--',candidates)
    return max(candidates, key=lambda w: NWORDS[w])#返回出现次数最大的一个单词


if __name__ == "__main__":
    print(correct('helee'))


