package po

//5.程序优化：Program optimization

import (
	"strings"
	"sync"
)

// Tokenize 分词函数，将文本分成单词并计数
func Tokenize(text string, counts map[string]int, wg *sync.WaitGroup) {
	defer wg.Done()

	words := strings.Fields(text) // 使用空格分割文本，得到单词列表
	for _, word := range words {
		counts[word]++ // 统计每个单词出现的次数
	}
}
