word1 = torch.LongTensor([0, 1, 2]) # "我 爱 中国" 对应的数字
#或：
# word_to_ix = {'我': 0,'爱': 1,"中国":2} 每个单词用一个数字表示,需要"中国"的时,就用2来表示它
# 它的值是hello这个词的index,也就是0
# word1 = torch.LongTensor([word_to_ix['我'],word_to_ix['爱'],word_to_ix['中国']])
word2 = torch.LongTensor([0, 1, 3]) # "我 爱 读书" 对应的数字

embedding = nn.Embedding(num_embeddings=4, embedding_dim=5)
# 随机生成(4,5)维度大小的embedding,
# 4:表示单词的总数,这里共4个单词,即词典的大小
# 5:表示每个单词用5维的向量表示

print(embedding.weight)
print('word1:')
print(embedding(word1)) # 得到word embedding里面关于"我 爱 中国"这个词的初始词向量
print('word2:')
print(embedding(word2))
