Update README.md
Browse files
README.md
CHANGED
@@ -9,7 +9,15 @@ tags:
|
|
9 |
- sentence-transformers
|
10 |
- feature-extraction
|
11 |
- sentence-similarity
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
12 |
---
|
|
|
13 |
# SHerbert - Polish SentenceBERT
|
14 |
SentenceBERT is a modification of the pretrained BERT network that use siamese and triplet network structures to derive semantically meaningful sentence embeddings that can be compared using cosine-similarity. Training was based on the original paper [Siamese BERT models for the task of semantic textual similarity (STS)](https://arxiv.org/abs/1908.10084) with a slight modification of how the training data was used. The goal of the model is to generate different embeddings based on the semantic and topic similarity of the given text.
|
15 |
|
@@ -41,7 +49,7 @@ tokenizer = AutoTokenizer.from_pretrained("Voicelab/sbert-base-cased-pl")
|
|
41 |
s0 = "Uczenie maszynowe jest konsekwencją rozwoju idei sztucznej inteligencji i metod jej wdrażania praktycznego."
|
42 |
s1 = "Głębokie uczenie maszynowe jest sktukiem wdrażania praktycznego metod sztucznej inteligencji oraz jej rozwoju."
|
43 |
s2 = "Kasparow zarzucił firmie IBM oszustwo, kiedy odmówiła mu dostępu do historii wcześniejszych gier Deep Blue. "
|
44 |
-
|
45 |
|
46 |
tokens = tokenizer([s0, s1, s2],
|
47 |
padding=True,
|
|
|
9 |
- sentence-transformers
|
10 |
- feature-extraction
|
11 |
- sentence-similarity
|
12 |
+
widget:
|
13 |
+
- source_sentence: "Uczenie maszynowe jest konsekwencją rozwoju idei sztucznej inteligencji i metod jej wdrażania praktycznego."
|
14 |
+
sentences:
|
15 |
+
- "Głębokie uczenie maszynowe jest sktukiem wdrażania praktycznego metod sztucznej inteligencji oraz jej rozwoju."
|
16 |
+
- "Kasparow zarzucił firmie IBM oszustwo, kiedy odmówiła mu dostępu do historii wcześniejszych gier Deep Blue. "
|
17 |
+
- "Samica o długości ciała 10–11 mm, szczoteczki na tylnych nogach służące do zbierania pyłku oraz włoski na końcu odwłoka jaskrawo pomarańczowoczerwone. "
|
18 |
+
example_title: "Uczenie maszynowe"
|
19 |
---
|
20 |
+
|
21 |
# SHerbert - Polish SentenceBERT
|
22 |
SentenceBERT is a modification of the pretrained BERT network that use siamese and triplet network structures to derive semantically meaningful sentence embeddings that can be compared using cosine-similarity. Training was based on the original paper [Siamese BERT models for the task of semantic textual similarity (STS)](https://arxiv.org/abs/1908.10084) with a slight modification of how the training data was used. The goal of the model is to generate different embeddings based on the semantic and topic similarity of the given text.
|
23 |
|
|
|
49 |
s0 = "Uczenie maszynowe jest konsekwencją rozwoju idei sztucznej inteligencji i metod jej wdrażania praktycznego."
|
50 |
s1 = "Głębokie uczenie maszynowe jest sktukiem wdrażania praktycznego metod sztucznej inteligencji oraz jej rozwoju."
|
51 |
s2 = "Kasparow zarzucił firmie IBM oszustwo, kiedy odmówiła mu dostępu do historii wcześniejszych gier Deep Blue. "
|
52 |
+
|
53 |
|
54 |
tokens = tokenizer([s0, s1, s2],
|
55 |
padding=True,
|