ramadita commited on
Commit
434a84c
1 Parent(s): 30affc6

Add new SentenceTransformer model.

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 1024,
3
+ "pooling_mode_cls_token": true,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,469 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - id
4
+ license: apache-2.0
5
+ library_name: sentence-transformers
6
+ tags:
7
+ - sentence-transformers
8
+ - sentence-similarity
9
+ - feature-extraction
10
+ - dataset_size:10K<n<100K
11
+ - loss:MultipleNegativesRankingLoss
12
+ base_model: firqaaa/indo-sentence-bert-large
13
+ metrics:
14
+ - cosine_accuracy
15
+ - dot_accuracy
16
+ - manhattan_accuracy
17
+ - euclidean_accuracy
18
+ - max_accuracy
19
+ widget:
20
+ - source_sentence: Keutamaan Puasa
21
+ sentences:
22
+ - 'Puasa Adalah Perisai — Hadits Puasa #12'
23
+ - Takut Mati adalah Gangguan Jin?
24
+ - Yahudi Bukan Israel
25
+ - source_sentence: Jalan yang Lurus
26
+ sentences:
27
+ - Menempuh Jalan Tobat
28
+ - Keutamaan Shalat Lima Waktu (3)
29
+ - Bolehkah Wanita Menjadi Imam untuk Pria?
30
+ - source_sentence: Nikah Beda Agama
31
+ sentences:
32
+ - Masuk Islam, Haruskah Mengulang Akad Nikah?
33
+ - Adab Seorang Murid Terhadap Guru
34
+ - 10 Kunci Meraih Rasa Lapang Dada (Bag. 5)
35
+ - source_sentence: Hukum Salat Gaib
36
+ sentences:
37
+ - Jin dan Setan itu Ada
38
+ - Akupun Ingin Bahagia Seperti Dia
39
+ - Gerakan Membela Ramadhan
40
+ - source_sentence: Manut Saja Deh …
41
+ sentences:
42
+ - Berbuat Baik pada Siapa Pun
43
+ - Cara Bertaubat Dari Dosa Ghibah
44
+ - Masjid Ditutup Karena Wabah
45
+ pipeline_tag: sentence-similarity
46
+ model-index:
47
+ - name: Indonesia Islamic Sentence-BERT
48
+ results:
49
+ - task:
50
+ type: triplet
51
+ name: Triplet
52
+ dataset:
53
+ name: dev dataset
54
+ type: dev-dataset
55
+ metrics:
56
+ - type: cosine_accuracy
57
+ value: 0.8386572820790471
58
+ name: Cosine Accuracy
59
+ - type: dot_accuracy
60
+ value: 0.16188413643746616
61
+ name: Dot Accuracy
62
+ - type: manhattan_accuracy
63
+ value: 0.8381158635625339
64
+ name: Manhattan Accuracy
65
+ - type: euclidean_accuracy
66
+ value: 0.8391987005955603
67
+ name: Euclidean Accuracy
68
+ - type: max_accuracy
69
+ value: 0.8391987005955603
70
+ name: Max Accuracy
71
+ - task:
72
+ type: triplet
73
+ name: Triplet
74
+ dataset:
75
+ name: test dataset
76
+ type: test-dataset
77
+ metrics:
78
+ - type: cosine_accuracy
79
+ value: 0.8203463203463204
80
+ name: Cosine Accuracy
81
+ - type: dot_accuracy
82
+ value: 0.1774891774891775
83
+ name: Dot Accuracy
84
+ - type: manhattan_accuracy
85
+ value: 0.8170995670995671
86
+ name: Manhattan Accuracy
87
+ - type: euclidean_accuracy
88
+ value: 0.8187229437229437
89
+ name: Euclidean Accuracy
90
+ - type: max_accuracy
91
+ value: 0.8203463203463204
92
+ name: Max Accuracy
93
+ ---
94
+
95
+ # Indonesia Islamic Sentence-BERT
96
+
97
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [firqaaa/indo-sentence-bert-large](https://huggingface.co/firqaaa/indo-sentence-bert-large). It maps sentences & paragraphs to a 2048-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
98
+
99
+ ## Model Details
100
+
101
+ ### Model Description
102
+ - **Model Type:** Sentence Transformer
103
+ - **Base model:** [firqaaa/indo-sentence-bert-large](https://huggingface.co/firqaaa/indo-sentence-bert-large) <!-- at revision 4fa0d9d8e3a1ebc2632f321da6c863f905188034 -->
104
+ - **Maximum Sequence Length:** 512 tokens
105
+ - **Output Dimensionality:** 2048 tokens
106
+ - **Similarity Function:** Cosine Similarity
107
+ <!-- - **Training Dataset:** Unknown -->
108
+ - **Language:** id
109
+ - **License:** apache-2.0
110
+
111
+ ### Model Sources
112
+
113
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
114
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
115
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
116
+
117
+ ### Full Model Architecture
118
+
119
+ ```
120
+ SentenceTransformer(
121
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
122
+ (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
123
+ )
124
+ ```
125
+
126
+ ## Usage
127
+
128
+ ### Direct Usage (Sentence Transformers)
129
+
130
+ First install the Sentence Transformers library:
131
+
132
+ ```bash
133
+ pip install -U sentence-transformers
134
+ ```
135
+
136
+ Then you can load this model and run inference.
137
+ ```python
138
+ from sentence_transformers import SentenceTransformer
139
+
140
+ # Download from the 🤗 Hub
141
+ model = SentenceTransformer("ramadita/indo-islamic-sentence-bert")
142
+ # Run inference
143
+ sentences = [
144
+ 'Manut Saja Deh …',
145
+ 'Berbuat Baik pada Siapa Pun',
146
+ 'Cara Bertaubat Dari Dosa Ghibah',
147
+ ]
148
+ embeddings = model.encode(sentences)
149
+ print(embeddings.shape)
150
+ # [3, 2048]
151
+
152
+ # Get the similarity scores for the embeddings
153
+ similarities = model.similarity(embeddings, embeddings)
154
+ print(similarities.shape)
155
+ # [3, 3]
156
+ ```
157
+
158
+ <!--
159
+ ### Direct Usage (Transformers)
160
+
161
+ <details><summary>Click to see the direct usage in Transformers</summary>
162
+
163
+ </details>
164
+ -->
165
+
166
+ <!--
167
+ ### Downstream Usage (Sentence Transformers)
168
+
169
+ You can finetune this model on your own dataset.
170
+
171
+ <details><summary>Click to expand</summary>
172
+
173
+ </details>
174
+ -->
175
+
176
+ <!--
177
+ ### Out-of-Scope Use
178
+
179
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
180
+ -->
181
+
182
+ ## Evaluation
183
+
184
+ ### Metrics
185
+
186
+ #### Triplet
187
+ * Dataset: `dev-dataset`
188
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
189
+
190
+ | Metric | Value |
191
+ |:-------------------|:-----------|
192
+ | cosine_accuracy | 0.8387 |
193
+ | dot_accuracy | 0.1619 |
194
+ | manhattan_accuracy | 0.8381 |
195
+ | euclidean_accuracy | 0.8392 |
196
+ | **max_accuracy** | **0.8392** |
197
+
198
+ #### Triplet
199
+ * Dataset: `test-dataset`
200
+ * Evaluated with [<code>TripletEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.TripletEvaluator)
201
+
202
+ | Metric | Value |
203
+ |:-------------------|:-----------|
204
+ | cosine_accuracy | 0.8203 |
205
+ | dot_accuracy | 0.1775 |
206
+ | manhattan_accuracy | 0.8171 |
207
+ | euclidean_accuracy | 0.8187 |
208
+ | **max_accuracy** | **0.8203** |
209
+
210
+ <!--
211
+ ## Bias, Risks and Limitations
212
+
213
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
214
+ -->
215
+
216
+ <!--
217
+ ### Recommendations
218
+
219
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
220
+ -->
221
+
222
+ ## Training Details
223
+
224
+ ### Training Dataset
225
+
226
+ #### Unnamed Dataset
227
+
228
+
229
+ * Size: 14,780 training samples
230
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
231
+ * Approximate statistics based on the first 1000 samples:
232
+ | | anchor | positive | negative |
233
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
234
+ | type | string | string | string |
235
+ | details | <ul><li>min: 4 tokens</li><li>mean: 10.44 tokens</li><li>max: 23 tokens</li></ul> | <ul><li>min: 28 tokens</li><li>mean: 168.63 tokens</li><li>max: 512 tokens</li></ul> | <ul><li>min: 33 tokens</li><li>mean: 200.24 tokens</li><li>max: 512 tokens</li></ul> |
236
+ * Samples:
237
+ | anchor | positive | negative |
238
+ |:--------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
239
+ | <code>Hukum Bersumpah dengan Agama selain Islam</code> | <code>Baca Juga: Sumpah Dusta untuk Melariskan Barang Dagangan Ucapan semacam ini termasuk dalam perkataan yang terlarang. Diriwayatkan dari sahabat Tsabit bin Adh-Dhahak radhiyallahu ‘anhu, Nabi shallallahu ‘alaihi wa sallam bersabda, “Barangsiapa bersumpah dengan agama selain Islam, maka dia seperti apa yang dia katakan.</code> | <code>Jawab: Ini adalah bersumpah dengan Nabi Shallallahu’alaihi Wasallam dan ini diharamkan, serta merupakan bentuk kesyirikan. Karena bersumpah dengan sesuatu itu berarti mengagungkan sesuatu yang dijadikan objek dalam sumpahnya. Dan makhluk tidak boleh mengagungkan sesama makhluk. Oleh karena itu Nabi Shallallahu’alaihi Wasallam bersabda: “barangsiapa bersumpah atas nama selain Allah, maka ia telah kafir atau berbuat syirik” . Hadits ini umum mencakup bersumpah atas nama para Nabi, atau para Malaikat, atau orang-orang shalih dan semua makhluk. Nabi Shallallahu’alaihi Wasallam juga bersabda: “barangsiapa yang bersumpah, maka bersumpahlah dengan nama Allah atau hendaknya ia diam” . Adapun yang ada di dalam Al Qur’an, yaitu ayat-ayat yang berupa sumpah dengan al mursalat , bersumpah dengan adz dzari’at , bersumpah dengan al fajr , dengan al ashr , dengan adh dhuha , dengan mawaqi’un nujum , dan yang lainnya ini semua adalah sumpah dari Allah Ta’ala. Dan Allah Ta’ala bebas untuk bersumpah dengan nama makhluk-Nya sesuai kehendak-Nya.</code> |
240
+ | <code>Asuransi Kendaraan Selalu Rugi</code> | <code>Cucu dari unta tersebut tidak jelas diperoleh kapankah waktunya. Pembayarannya baru akan diberi setelah cucu unta tadi muncul dan tidak jelas waktunya. Bisa jadi pula unta tersebut tidak memiliki cucu. Itulah ghoror karena ujung akhirnya tidaklah jelas diperoleh.Secara umum memang Rasul shallallahu ‘alaihi wa sallam larang. Dari Abu Hurairah radhiyallahu ‘anhu, ia berkata, - - “Rasulullah shallallahu ‘alaihi wa sallam melarang dari jual beli hashoh dan melarang dari jual beli ghoror.” Inilah di antara alasan kenapa setiap beli kendaraan bermotor, penulis sendiri tidak pernah menambah biaya asuransi. Karena asuransi itu selalu merugi, rugi dunia, rugi akhirat karena terjatuh pada yang haram.Wa billahit taufiq was sadaad, hanya Allah yang memberi taufik dan petunjuk. * Tulisan di atas diambil dari buku penulis “Bermodalkan Ilmu Sebelum Berdagang” yang diterbitkan oleh Pustaka Muslim Yogyakarta.—Selesai disusun menjelang Shubuh di Darush Sholihin Panggang Gunungkidul, 13 Safar 1436 HYang selalu mengharapkan ampunan Allah: M. Abduh TuasikalSegera pesan buku Ustadz Muhammad Abduh Tuasikal yang membicarakan fikih jual beli dengan judul “Bermodalkan Ilmu Sebelum Berdagang” di Toko Online Ruwaifi.Com via sms +62 852 00 171 222 atau BB 27EACDF5 atau WA +62 8222 604 2114. Kirim format pesan: buku dagang#nama pemesan#alamat#no HP#jumlah buku. Harga Rp.30.000,- .Saat ini masjid pesantren binaan Ustadz M.</code> | <code>A menerima uang dari C dan meminta B untuk menyerahkan langsung motor ke C. Ini termasuk bai’ gharar karena motor tersebut bisa jadi lenyap dari B dan tidak bisa diserahterimakan kepada C.Dari Hakim bin Hizam radhiyallahu ‘anhu, ia berkata, : .“Wahai Rasulullah, saya sering melakukan jual beli, apa jual beli yang halal dan yang haram? Nabi shallallahu ‘alaihi wa sallam bersabda, ‘Wahai anak saudaraku! Bila engkau membeli sebuah barang janganlah engkau jual sebelum barang tersebut engkau terima.’” . Dari ‘Abdullah bin ‘Umar radhiyallahu ‘anhuma, ia berkata, – – “Rasulullah shallallahu ‘alaihi wa sallam melarang transaksi jual beli yang disebut dengan “habalul habalah”. Itu adalah jenis jual beli yang dilakoni masyarakat jahiliyah. “Habalul habalah” adalah transaksi jual beli yang bentuknya adalah: seorang yang membeli barang semisal unta secara tidak tunai. Jatuh tempo pembayarannya adalah ketika cucu dari seekor unta yang dimiliki oleh penjual lahir” .Cucu dari unta tersebut tidak jelas diperoleh kapankah waktunya. Pembayarannya baru akan diberi setelah cucu unta tadi muncul dan tidak jelas waktunya. Bisa jadi pula unta tersebut tidak memiliki cucu. Diambil dari Fathul Qarib, Al-Imta’ bi Syarh Matn Abu Syuja’, dan Tashilul Intifa’ bi Matan Abi Syuja’ wa Syai’ Mimma Tata’allaq bihi Min Dalil wa Ijma’, Harta Haram karya Gurunda Ustadz Erwandi Tarmizi.</code> |
241
+ | <code>Sifat Shalat Nabi (27): Di Tasyahud Akhir, Berdoa Agar Rajin Berdzikir dan Bersyukur</code> | <code>Minhatul ‘Allam fii Syarh Bulughil Marom, Syaikh ‘Abdullah bin Shalih Al Fauzan, terbitan Dar Ibnul Jauzi, cetakan ketiga, tahun 1432 H, 3: 194-196.—Selesai disusun di Panggang, Gunungkidul, 16 Muharram 1436 HOleh Al Faqir Ilallah: M. Abduh Tuasikal, MScArtikel Rumaysho.ComIkuti status kami dengan memfollow FB Muhammad Abduh Tuasikal, Fans Page Mengenal Ajaran Islam Lebih Dekat, Twitter @RumayshoCom, Instagram RumayshoComSekarang sudah masuk musim hujan, segera pesan buku Ustadz Abduh Tuasikal mengenai fikih hujan dengan judul “Panduan Amal Shalih di Musim Hujan” di Toko Online Ruwaifi.Com via sms +62 852 00 171 222 atau BB 27EACDF5 atau WA +62 8222 604 2114. Kirim format pesan: buku hujan#nama pemesan#alamat#no HP#jumlah buku.</code> | <code>Referensi:Minhatul ‘Allam fii Syarhi Bulughil Marom, Syaikh ‘Abdullah bin Sholih Al Fauzan, terbitan Dar Ibnil Jauzi, cetakan pertama, tahun 1431 H, 9: 243, 255, 256.—Disusun selepas Ashar di Pesantren Darush Sholihin, Panggang, Gunungkidul, 13 Safar 1435 H, 03:59 PMOleh akhukum fillah: Muhammad Abduh TuasikalArtikel Rumaysho.ComIkuti status kami dengan memfollow FB Muhammad Abduh Tuasikal, Fans Page Mengenal Ajaran Islam Lebih Dekat, Twitter @RumayshoCom—Akan segera terbit buku terbaru karya Ustadz Muhammad Abduh Tuasikal, yaitu Buku Mengenal Bid’ah Lebih Dekat . Bagi yang ingin melakukan pre order, kirimkan format pemesanan via sms ke no 0852 0017 1222 atau via PIN BB 2AF1727A: Buku Bid’ah#Nama#Alamat#no HP.</code> |
242
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
243
+ ```json
244
+ {
245
+ "scale": 20.0,
246
+ "similarity_fct": "cos_sim"
247
+ }
248
+ ```
249
+
250
+ ### Evaluation Dataset
251
+
252
+ #### Unnamed Dataset
253
+
254
+
255
+ * Size: 1,847 evaluation samples
256
+ * Columns: <code>anchor</code>, <code>positive</code>, and <code>negative</code>
257
+ * Approximate statistics based on the first 1000 samples:
258
+ | | anchor | positive | negative |
259
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|
260
+ | type | string | string | string |
261
+ | details | <ul><li>min: 4 tokens</li><li>mean: 10.24 tokens</li><li>max: 30 tokens</li></ul> | <ul><li>min: 31 tokens</li><li>mean: 172.02 tokens</li><li>max: 444 tokens</li></ul> | <ul><li>min: 33 tokens</li><li>mean: 199.31 tokens</li><li>max: 429 tokens</li></ul> |
262
+ * Samples:
263
+ | anchor | positive | negative |
264
+ |:---------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
265
+ | <code>Prasangka Buruk Yang Dibolehkan</code> | <code>Adapun orang yang dikenal sering melakukan kefasikan dan maksiat, maka tidak mengapa kita berprasangka buruk kepadanya. Karena mereka memang gandrung dalam hal itu. Walaupun demikian, tidak selayaknya seorang Muslim itu mencari-cari dan menyelidiki keburukan orang lain. Karena sikap demikian kadang termasuk tajassus“. “orang yang memiliki permusuhan dan pertarungan dengan seseorang dalam masalah agama atau masalah dunia, yang hal tersebut mengancam keselamatan jiwanya, karena makar dari musuhnya. Maka ketika itu dianjurkan berprasangka buruk terhadap tipu daya dan makar musuh. Karena jika tidak, ia akan dikejutkan dengan tipu daya musuhnya sehingga bisa binasa” Baca Juga: Rincian Hukum Su’uzan Dari penjelasan di atas juga kita ketahui bahwa, perkataan salaf semisal: “Seorang mu’min itu mencari udzur terhadap saudaranya” Tidak berlaku bagi mu’min yang dikenal gemar dengan kemaksiatan atau kefasikan. Adapun Mu’min yang tidak dikenal dengan kemaksiatan dan kefasikan, maka haram dinodai kehormatannya dan haram bersuuzhan kepadanya. Dan inilah hukum asal seorang Mu’min. Terutama orang-orang Mu’min yang dikenal dengan kebaikan, maka hendaknya mencari lebih banyak alasan untuk berprasangka baik kepadanya. Bahkan, jika ia salah, hendaknya kita maafkan.</code> | <code>Walau kau katakan bahwa non muslim tersebut lebih baik, lebih amanat, lebih jujur, lebih bersih, lebih adil, dan menyebutkan rentetan kebaikan lainnya, namun Allah tetap mengatakan bahwa mereka adalah sejelek-jeleknya makhluk. Disebutkan dalam surat Al Bayyinah, non muslim itu syarrul bariyyah .Allah Ta’ala berfirman, “Sesungguhnya orang-orang yang kafir yakni ahli Kitab dan orang-orang yang musyrik ke neraka Jahannam; mereka kekal di dalamnya. Mereka itu adalah seburuk-buruk makhluk.” .Mengenai tempat orang kafir yaitu bagi ahli kitab dan non-muslim lainnya kelak adalah di neraka. Mereka akan kekal di dalamnya.Jika dikatakan mereka kekal di dalamnya, berarti mereka terus menerus di dalamnya dan tidak berpindah dari tempat tersebut.Mereka pun disebut sejelek-jeleknya makhluk yang Allah berlepas diri dari mereka.Syaikh Muhammad bin Shalih Al ‘Utsaimin rahimahullah berkata, “Ahli kitab serta orang-orang musyrik adalah sejelek-jelek makhluk di sisi Allah. Jika mereka adalah sejelek-jelek makhluk, maka berarti dipastikan pada mereka kejelekan. Karena yang dimaksud kejelekan di sini adalah nampak pada mereka kejelekan yang tidak mungkin kita berhusnuzhon pada mereka. Kecuali ada beberapa orang yang dipersaksikan langsung oleh Nabi shallallahu ‘alaihi wa sallam di antara orang musyrik seperti ‘Abdullah bin Ariqoth.</code> |
266
+ | <code>Bahaya Syirik</code> | <code>Semoga Allah menyanjung dan memberi keselamatan untuknya, keluarganya dan semua shahabatnya. Terdapat banyak dalil dari al Qur’an dan sunah yang menunjukkan bahwa kemusyrikan itu ada dua macam yaitu besar dan kecil. Dua macam kemusyrikan ini berbeda pengertian dan konsekuensinya. Pengertian syirik besar adalah menyamakan selain Allah dengan Allah baik dalam rububiyyah, nama dan sifat ataupun dalam uluhiyyah. Siapa saja yang menyamakan selain Allah dengan Allah dalam salah satu hak khusus Allah maka dia telah menyekutukan Allah dengan syirik besar yang mengeluarkan palakunya dari agama Islam. Sedangkan syirik kecil adalah segala perbuatan yang dicap sebagai kemusyrikan oleh dalil, akan tetapi belum sampai derajat syirik besar. Contohnya adalah bersumpah dengan Allah, ucapan ‘sebagaimana kehendak Allah dan kehendakmu’, ‘seandainya tidak demikian tentu yang terjadi adalah demikian dan demikian’ dan ucapan-ucapan semisal yang mengandung kemusyrikan akan tetapi orang yang mengucapkannya tidak memaksudkannya. Sedangkan konsekuensi hukum dari dua macam kemusyrikan tersebut di Akherat tentu berbeda. Pelaku syirik besar itu kekal di dalam neraka selamanya, tidak mati tidak pula mendapatkan keringanan siksa. Sedangkan syirik kecil dampaknya tidak sampai seperti itu. Meski pada asalnya syirik kecil itu dosa besar yang paling besar sebagaimana perkataan sahabat, Abdullah bin Mas’ud. Beliau berkata, “Sungguh jika aku bersumpah dengan menyebut nama Allah sedangkan isi sumpahku adalah dusta itu lebih aku sukai dari pada aku bersumpah dengan selain nama Allah meskipun isi sumpahku adalah benar.” Bersumpah dengan selain nama Allah meski isi sumpahnya benar adalah kemusyrikan. Sedangkan bersumpah dengan nama Allah sedangkan isinya adalah dusta adalah melakukan dosa besar yaitu dusta. Dosa besar tidak bisa dibandingkan dengan kemusyrikan.</code> | <code>Pada pembahasan ini akan disebutkan macam-macam kekufuran berdasarkan penyebabnya. Ditinjau dari hukumnya, kekufuran dibagi menjadi kufur akbar dan asghar. Kufur akbar menyebabkan hilangnya iman secara keseluruhan dan pelakunya bukan lagi seorang mukmin. Kufur akbar dapat terjadi karena keyakinan, atau ucapan, atau perbuatan. Sedangkan kufur asghar akan meniadakan kesempurnaan iman, namun tidak menghilangkan iman secara total. Ini merupakan kekufuran amal, yaitu berupa semua maksiat yang dinamai oleh syariat sebagai perbuatan kekufuran, namun pelakunya masih dianggap mukmin. [1] Kufur jenis ini yaitu seperti kekufuran yang terjadi pada orang yang mengenal kebenaran Islam di dalam hatinya, namun dia mengingkari dan tidak mau mengakuinya. Perbedaan antara juhud dan takdzib yaitu bahwa makna takdzib lebih luas daripada juhud. Kufur juhud terjadi pada lisan, adapun takdzib bisa terdapat dalam hati, lisan, dan juga amal perbuatan. Perbedaan ini ditunjukkan dalam firman Allah, “Karena mereka sebenarnya bukan mendustakan kamu. Akan tetapi, orang-orang yang zalim itu mengingkari ayat-ayat Allah.“ Contoh kufur jenis ini adalah kufurnya Fir’aun dan orang-orang yang mengikutinya. Allah Ta’ala berfirman, “Dan mereka mengingkarinya karena kezaliman dan kesombongan padahal hati mereka meyakini nya. Maka, perhatikanlah bagaimana kesudahan orang-orang yang berbuat kebinasaan.“ Demikian pula kufur yang terjadi pada kaum Yahudi ketika mereka menentang kenabian Rasul kita Muhammad shallallahu ‘alaihi wasallam dan mereka menyembunyikan status kanabian beliau. Mereka menyembunyikan sifat kenabian yang terdapat dalam kitab mereka, meskipun mereka telah mengenal Nabi seperti mereka mengenal anak-anak mereka.</code> |
267
+ | <code>Pendidikan Iman, Mata Pelajaran ‘Wajib’ dalam Dunia Pendidikan Tiap Harakah Islamiyah</code> | <code>Ia harus selalu ditempa sehingga tetap halus dan berkilau, harus selalu dijaga dalam kondisi sadar agar tidak menjadi tumpul dan keras.” Dari keterangan ini, kita menyadari akan pentingnya perhatian terhadap nafsu manusia dan selalu menempanya dengan pendidikan iman, amalan yang menyucikannya, dan selalu mengawasinya dari ujung pangkalnya, naik turunnya, sehat sakitnya, tinggi rendahnya, gelap terangnya, lembah buktinya, dan jauh dekatnya.</code> | <code>Dan berburuk sangkalah kepadamu dalam perkara agamamu. Perlakukan ia sebagaimana Anda memperlakukan orang yang tidak Anda butuhkan, tetapi harus tetap ada.”“Orang yang bijak akan membawa nafsunya kepada hal-hal yang tidak disukai hingga ia mengakui kebenaran. Sedangkan orang yang bodoh akan membiarkan nafsunya memilih sendiri apa akhlak yang diinginkannya, apa yang disukainya hingga ia pun ikut menyukainya, dan apa yang dibenci maka ia akan ikut membencinya.” Secarik kalimat menarik dari pengarang Tafsir Fi Dzilalil Quran, Sayyid Quthb rahimahullah,“Hati manusia itu cepat berubah-ubah dan cepat lupa. Ia berselimut cahaya yang meliputinya sehingga berkilau seperti sinar.</code> |
268
+ * Loss: [<code>MultipleNegativesRankingLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
269
+ ```json
270
+ {
271
+ "scale": 20.0,
272
+ "similarity_fct": "cos_sim"
273
+ }
274
+ ```
275
+
276
+ ### Training Hyperparameters
277
+ #### Non-Default Hyperparameters
278
+
279
+ - `eval_strategy`: steps
280
+ - `gradient_accumulation_steps`: 2
281
+ - `num_train_epochs`: 1
282
+ - `warmup_ratio`: 0.1
283
+ - `fp16`: True
284
+ - `batch_sampler`: no_duplicates
285
+
286
+ #### All Hyperparameters
287
+ <details><summary>Click to expand</summary>
288
+
289
+ - `overwrite_output_dir`: False
290
+ - `do_predict`: False
291
+ - `eval_strategy`: steps
292
+ - `prediction_loss_only`: True
293
+ - `per_device_train_batch_size`: 8
294
+ - `per_device_eval_batch_size`: 8
295
+ - `per_gpu_train_batch_size`: None
296
+ - `per_gpu_eval_batch_size`: None
297
+ - `gradient_accumulation_steps`: 2
298
+ - `eval_accumulation_steps`: None
299
+ - `learning_rate`: 5e-05
300
+ - `weight_decay`: 0.0
301
+ - `adam_beta1`: 0.9
302
+ - `adam_beta2`: 0.999
303
+ - `adam_epsilon`: 1e-08
304
+ - `max_grad_norm`: 1.0
305
+ - `num_train_epochs`: 1
306
+ - `max_steps`: -1
307
+ - `lr_scheduler_type`: linear
308
+ - `lr_scheduler_kwargs`: {}
309
+ - `warmup_ratio`: 0.1
310
+ - `warmup_steps`: 0
311
+ - `log_level`: passive
312
+ - `log_level_replica`: warning
313
+ - `log_on_each_node`: True
314
+ - `logging_nan_inf_filter`: True
315
+ - `save_safetensors`: True
316
+ - `save_on_each_node`: False
317
+ - `save_only_model`: False
318
+ - `restore_callback_states_from_checkpoint`: False
319
+ - `no_cuda`: False
320
+ - `use_cpu`: False
321
+ - `use_mps_device`: False
322
+ - `seed`: 42
323
+ - `data_seed`: None
324
+ - `jit_mode_eval`: False
325
+ - `use_ipex`: False
326
+ - `bf16`: False
327
+ - `fp16`: True
328
+ - `fp16_opt_level`: O1
329
+ - `half_precision_backend`: auto
330
+ - `bf16_full_eval`: False
331
+ - `fp16_full_eval`: False
332
+ - `tf32`: None
333
+ - `local_rank`: 0
334
+ - `ddp_backend`: None
335
+ - `tpu_num_cores`: None
336
+ - `tpu_metrics_debug`: False
337
+ - `debug`: []
338
+ - `dataloader_drop_last`: False
339
+ - `dataloader_num_workers`: 0
340
+ - `dataloader_prefetch_factor`: None
341
+ - `past_index`: -1
342
+ - `disable_tqdm`: False
343
+ - `remove_unused_columns`: True
344
+ - `label_names`: None
345
+ - `load_best_model_at_end`: False
346
+ - `ignore_data_skip`: False
347
+ - `fsdp`: []
348
+ - `fsdp_min_num_params`: 0
349
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
350
+ - `fsdp_transformer_layer_cls_to_wrap`: None
351
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
352
+ - `deepspeed`: None
353
+ - `label_smoothing_factor`: 0.0
354
+ - `optim`: adamw_torch
355
+ - `optim_args`: None
356
+ - `adafactor`: False
357
+ - `group_by_length`: False
358
+ - `length_column_name`: length
359
+ - `ddp_find_unused_parameters`: None
360
+ - `ddp_bucket_cap_mb`: None
361
+ - `ddp_broadcast_buffers`: False
362
+ - `dataloader_pin_memory`: True
363
+ - `dataloader_persistent_workers`: False
364
+ - `skip_memory_metrics`: True
365
+ - `use_legacy_prediction_loop`: False
366
+ - `push_to_hub`: False
367
+ - `resume_from_checkpoint`: None
368
+ - `hub_model_id`: None
369
+ - `hub_strategy`: every_save
370
+ - `hub_private_repo`: False
371
+ - `hub_always_push`: False
372
+ - `gradient_checkpointing`: False
373
+ - `gradient_checkpointing_kwargs`: None
374
+ - `include_inputs_for_metrics`: False
375
+ - `eval_do_concat_batches`: True
376
+ - `fp16_backend`: auto
377
+ - `push_to_hub_model_id`: None
378
+ - `push_to_hub_organization`: None
379
+ - `mp_parameters`:
380
+ - `auto_find_batch_size`: False
381
+ - `full_determinism`: False
382
+ - `torchdynamo`: None
383
+ - `ray_scope`: last
384
+ - `ddp_timeout`: 1800
385
+ - `torch_compile`: False
386
+ - `torch_compile_backend`: None
387
+ - `torch_compile_mode`: None
388
+ - `dispatch_batches`: None
389
+ - `split_batches`: None
390
+ - `include_tokens_per_second`: False
391
+ - `include_num_input_tokens_seen`: False
392
+ - `neftune_noise_alpha`: None
393
+ - `optim_target_modules`: None
394
+ - `batch_eval_metrics`: False
395
+ - `batch_sampler`: no_duplicates
396
+ - `multi_dataset_batch_sampler`: proportional
397
+
398
+ </details>
399
+
400
+ ### Training Logs
401
+ | Epoch | Step | Training Loss | loss | dev-dataset_max_accuracy | test-dataset_max_accuracy |
402
+ |:------:|:----:|:-------------:|:------:|:------------------------:|:-------------------------:|
403
+ | 0.1082 | 100 | 1.3075 | 1.1562 | 0.7878 | - |
404
+ | 0.2165 | 200 | 1.1713 | 1.0373 | 0.8062 | - |
405
+ | 0.3247 | 300 | 1.0664 | 0.9837 | 0.8192 | - |
406
+ | 0.4329 | 400 | 0.9908 | 0.9258 | 0.8192 | - |
407
+ | 0.5411 | 500 | 0.9434 | 0.8882 | 0.8192 | - |
408
+ | 0.6494 | 600 | 0.9394 | 0.8478 | 0.8316 | - |
409
+ | 0.7576 | 700 | 0.8746 | 0.7984 | 0.8381 | - |
410
+ | 0.8658 | 800 | 0.7718 | 0.7811 | 0.8397 | - |
411
+ | 0.9740 | 900 | 0.772 | 0.7676 | 0.8392 | - |
412
+ | 1.0 | 924 | - | - | - | 0.8203 |
413
+
414
+
415
+ ### Framework Versions
416
+ - Python: 3.10.13
417
+ - Sentence Transformers: 3.0.0
418
+ - Transformers: 4.41.2
419
+ - PyTorch: 2.2.0
420
+ - Accelerate: 0.30.1
421
+ - Datasets: 2.19.1
422
+ - Tokenizers: 0.19.1
423
+
424
+ ## Citation
425
+
426
+ ### BibTeX
427
+
428
+ #### Sentence Transformers
429
+ ```bibtex
430
+ @inproceedings{reimers-2019-sentence-bert,
431
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
432
+ author = "Reimers, Nils and Gurevych, Iryna",
433
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
434
+ month = "11",
435
+ year = "2019",
436
+ publisher = "Association for Computational Linguistics",
437
+ url = "https://arxiv.org/abs/1908.10084",
438
+ }
439
+ ```
440
+
441
+ #### MultipleNegativesRankingLoss
442
+ ```bibtex
443
+ @misc{henderson2017efficient,
444
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
445
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
446
+ year={2017},
447
+ eprint={1705.00652},
448
+ archivePrefix={arXiv},
449
+ primaryClass={cs.CL}
450
+ }
451
+ ```
452
+
453
+ <!--
454
+ ## Glossary
455
+
456
+ *Clearly define terms in order to be accessible across audiences.*
457
+ -->
458
+
459
+ <!--
460
+ ## Model Card Authors
461
+
462
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
463
+ -->
464
+
465
+ <!--
466
+ ## Model Card Contact
467
+
468
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
469
+ -->
config.json ADDED
@@ -0,0 +1,47 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "firqaaa/indo-sentence-bert-large",
3
+ "_num_labels": 5,
4
+ "architectures": [
5
+ "BertModel"
6
+ ],
7
+ "attention_probs_dropout_prob": 0.1,
8
+ "classifier_dropout": null,
9
+ "directionality": "bidi",
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 1024,
13
+ "id2label": {
14
+ "0": "LABEL_0",
15
+ "1": "LABEL_1",
16
+ "2": "LABEL_2",
17
+ "3": "LABEL_3",
18
+ "4": "LABEL_4"
19
+ },
20
+ "initializer_range": 0.02,
21
+ "intermediate_size": 4096,
22
+ "label2id": {
23
+ "LABEL_0": 0,
24
+ "LABEL_1": 1,
25
+ "LABEL_2": 2,
26
+ "LABEL_3": 3,
27
+ "LABEL_4": 4
28
+ },
29
+ "layer_norm_eps": 1e-12,
30
+ "max_position_embeddings": 512,
31
+ "model_type": "bert",
32
+ "num_attention_heads": 16,
33
+ "num_hidden_layers": 24,
34
+ "output_past": true,
35
+ "pad_token_id": 0,
36
+ "pooler_fc_size": 768,
37
+ "pooler_num_attention_heads": 12,
38
+ "pooler_num_fc_layers": 3,
39
+ "pooler_size_per_head": 128,
40
+ "pooler_type": "first_token_transform",
41
+ "position_embedding_type": "absolute",
42
+ "torch_dtype": "float32",
43
+ "transformers_version": "4.41.2",
44
+ "type_vocab_size": 2,
45
+ "use_cache": true,
46
+ "vocab_size": 30522
47
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "2.2.2",
4
+ "transformers": "4.36.2",
5
+ "pytorch": "2.1.2+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:5d1cfe5831ca19bbe533b45f208305fd9550f412fbcc132b837972b125bf6a9a
3
+ size 1340612432
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,37 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "cls_token": {
3
+ "content": "[CLS]",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "mask_token": {
10
+ "content": "[MASK]",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "pad_token": {
17
+ "content": "[PAD]",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "sep_token": {
24
+ "content": "[SEP]",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "unk_token": {
31
+ "content": "[UNK]",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ }
37
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,64 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "[PAD]",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "[UNK]",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "[CLS]",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "[SEP]",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "4": {
36
+ "content": "[MASK]",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "clean_up_tokenization_spaces": true,
45
+ "cls_token": "[CLS]",
46
+ "do_basic_tokenize": true,
47
+ "do_lower_case": true,
48
+ "mask_token": "[MASK]",
49
+ "max_length": 512,
50
+ "model_max_length": 512,
51
+ "never_split": null,
52
+ "pad_to_multiple_of": null,
53
+ "pad_token": "[PAD]",
54
+ "pad_token_type_id": 0,
55
+ "padding_side": "right",
56
+ "sep_token": "[SEP]",
57
+ "stride": 0,
58
+ "strip_accents": null,
59
+ "tokenize_chinese_chars": true,
60
+ "tokenizer_class": "BertTokenizer",
61
+ "truncation_side": "right",
62
+ "truncation_strategy": "longest_first",
63
+ "unk_token": "[UNK]"
64
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff