Update README.md
Browse files
README.md
CHANGED
@@ -21,8 +21,7 @@ extra_gated_fields:
|
|
21 |
Country: text
|
22 |
I agree to use this dataset for non-commercial use ONLY: checkbox
|
23 |
---
|
24 |
-
|
25 |
-
解析後保留的欄位有兩個:條目名稱(title),條目內容(page article)。
|
26 |
|
27 |
原始的打包檔條目內容簡繁混雜,所以有利用 OpenCC 進行簡轉繁處理。
|
28 |
|
@@ -30,4 +29,6 @@ extra_gated_fields:
|
|
30 |
* 全部 4,296,249 個條目標題。
|
31 |
* 全部 4,296,249 個條目內容。
|
32 |
* 無法自動去標記的條目數: 5,415
|
33 |
-
* 有內容的條目數: 4,296,249
|
|
|
|
|
|
21 |
Country: text
|
22 |
I agree to use this dataset for non-commercial use ONLY: checkbox
|
23 |
---
|
24 |
+
要搞自己的大型語言模型,最基本的基本,就是需要一大堆文字資料,從 Common Crawl 上頭抓回來慢慢清洗是一條路,清洗維基百科網站的週期性下載檔也是一個方法。本資料集是解析自維基百科打包好的 bz2 檔案,解析出所需內容,利用 wikitextparser 移除 Wiki 標記。本資料檔解析維基百科 20230701 發布的繁體中文版打包檔的內容。解析後保留的欄位有兩個:條目名稱(title),條目內容(page article)。
|
|
|
25 |
|
26 |
原始的打包檔條目內容簡繁混雜,所以有利用 OpenCC 進行簡轉繁處理。
|
27 |
|
|
|
29 |
* 全部 4,296,249 個條目標題。
|
30 |
* 全部 4,296,249 個條目內容。
|
31 |
* 無法自動去標記的條目數: 5,415
|
32 |
+
* 有內容的條目數: 4,296,249
|
33 |
+
|
34 |
+
資料集當中有不少內容為 #REDIRECT 的條目,就等以後有空推出修正版再來清洗了。
|