jslin09 commited on
Commit
49d2d27
1 Parent(s): 3b9790b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +7 -7
README.md CHANGED
@@ -21,16 +21,16 @@ extra_gated_fields:
21
  Country: text
22
  I agree to use this dataset for non-commercial use ONLY: checkbox
23
  ---
24
- 要搞自己的大型語言模型,最基本的基本,就是需要一大堆文字資料,從 Common Crawl 上頭抓回來慢慢清洗是一條路,清洗維基百科網站的週期性下載檔也是一個方法。本資料集是解析自[維基百科於 20230701 發布的繁體中文版打包檔](https://dumps.wikimedia.org/zhwiki/20230701/) bz2 檔案的內容,在解析出所需內容後,利用 [wikitextparser](https://wikitextparser.readthedocs.io/en/latest/) 移除 Wiki 標記。解析後保留的欄位有兩個:條目名稱(title),條目內容(page article)。
25
 
26
  原始的打包檔條目內容簡繁混雜,所以有利用 OpenCC 進行簡轉繁處理。
27
 
28
- * 原始總條目數: 4,296,654 條目。
29
- * 全部 4,296,249 個條目標題。
30
- * 全部 4,296,249 個條目內容。
31
- * 無法自動去標記的條目數: 5,415
32
- * 有內容的條目數: 4,296,249
33
 
34
  因為本資料集內容龐大,要塞進一般的個人電腦中進行計算,恐怕會有資源不足的情形。建議使用[parquet](https://huggingface.co/docs/datasets/loading#parquet)格式下載使用。
35
 
36
- 資料集當中有不少內容為 #REDIRECT 的條目,就等以後有空推出修正版再來清洗了。
 
21
  Country: text
22
  I agree to use this dataset for non-commercial use ONLY: checkbox
23
  ---
24
+ 要搞自己的大型語言模型,最基本的基本,就是需要一大堆文字資料,從 Common Crawl 上頭抓回來慢慢清洗是一條路,清洗維基百科網站的週期性下載檔也是一個方法。本資料集是解析自[維基百科於 20240420 發布的繁體中文版打包檔](https://dumps.wikimedia.org/zhwiki/20240420/) bz2 檔案的內容,在解析出所需內容後,利用 [wikitextparser](https://wikitextparser.readthedocs.io/en/latest/) 移除 Wiki 標記。解析後保留的欄位有兩個:條目名稱(title),條目內容(page article)。
25
 
26
  原始的打包檔條目內容簡繁混雜,所以有利用 OpenCC 進行簡轉繁處理。
27
 
28
+ * 原始總條目數: 4,451,426 條目。
29
+ * 全部 4,451,426 個條目標題。
30
+ * 全部 4,451,426 個條目內容。
31
+ * 無法自動去標記的條目數: 1,792,427
32
+ * 有內容的條目數: 1,415,676
33
 
34
  因為本資料集內容龐大,要塞進一般的個人電腦中進行計算,恐怕會有資源不足的情形。建議使用[parquet](https://huggingface.co/docs/datasets/loading#parquet)格式下載使用。
35
 
36
+ 資料集當中有不少內容為 #REDIRECT 的條目已經嘗試移除,如果移除的不乾淨,就等以後有空推出修正版再來清洗了。