bongsoo commited on
Commit
47aee90
1 Parent(s): 360302e

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +6 -3
README.md CHANGED
@@ -56,11 +56,11 @@ for idx, mask_idx in enumerate(mask_idx_list):
56
 
57
 
58
  *Input: 에펠탑은 [MASK]에 있다
59
- *[MASK] : 런던 (120350)
60
 
61
 
62
  *Input: 충무공 이순신은 [MASK]에 최고의 장수였다
63
- *[MASK] : 조선 (59906)
64
  ```
65
  ### 2. 임베딩 예시
66
  - 평균 폴링(mean_pooling) 방식 사용. ([cls 폴링](https://huggingface.co/sentence-transformers/bert-base-nli-cls-token), [max 폴링](https://huggingface.co/sentence-transformers/bert-base-nli-max-tokens))
@@ -106,7 +106,10 @@ print(f'*cosine_score:{cosine_scores[0]}')
106
  ```
107
  - 결과
108
  ```
109
- *cosine_score:0.5596463680267334
 
 
 
110
  ```
111
  ## Training
112
 
 
56
 
57
 
58
  *Input: 에펠탑은 [MASK]에 있다
59
+ *[MASK] : 프랑스 (47364)
60
 
61
 
62
  *Input: 충무공 이순신은 [MASK]에 최고의 장수였다
63
+ *[MASK] : 임진왜란 (122835)
64
  ```
65
  ### 2. 임베딩 예시
66
  - 평균 폴링(mean_pooling) 방식 사용. ([cls 폴링](https://huggingface.co/sentence-transformers/bert-base-nli-cls-token), [max 폴링](https://huggingface.co/sentence-transformers/bert-base-nli-max-tokens))
 
106
  ```
107
  - 결과
108
  ```
109
+ Sentence embeddings:
110
+ tensor([[-0.0166, 0.0129, 0.2805, ..., -0.1452, -0.0855, -0.4914],
111
+ [-0.0973, 0.0845, 0.2841, ..., 0.1996, -0.1497, -0.2990]])
112
+ *cosine_score:0.5162007808685303
113
  ```
114
  ## Training
115