| Command Line |
| ============ |
|
|
| You can use some thainlp functions directly from command line. |
|
|
| **Tokenization**:: |
|
|
| thainlp tokenize <word|syllable|subword|sent> [-w] [-nw] [-a newmm|attacut|longest] [-s SEPARATOR] TEXT |
| |
| *Example*:: |
| |
| $ thainlp tokenize word สภาพการจ้างและสภาพการทำงาน |
| สภาพการจ้าง|และ|สภาพ|การทำงาน| |
|
|
| $ thainlp tokenize syllable สภาพการจ้างและสภาพการทำงาน |
| สภาพ~การ~จ้าง~และ~สภาพ~การ~ทำ~งาน~ |
|
|
| $ thainlp tokenize subword สภาพการจ้างและสภาพการทำงาน |
| ส/ภา/พ/กา/ร/จ้า/ง/และ/ส/ภา/พ/กา/ร/ทำ/งา/น/ |
|
|
| $ thainlp tokenize word -a longest "แรงงานกะดึก: ฟันเฟืองที่ยังหมุนในคำ่คืนมีเคอร์ฟิว" |
| แรงงาน|กะ|ดึก|:| |ฟันเฟือง|ที่|ยัง|หมุน|ใน|คำ่|คืน|มี|เคอร์ฟิว| |
|
|
| $ thainlp tokenize word -nw -s "##" "5 เหตุผล 'ไม่ควร' ต่อพ.ร.ก.ฉุกเฉิน" |
| 5 |
|
|
| $ thainlp tokenize sent "หลายปีที่ผ่านมา ชาวชุมชนโคกยาวหลายคนได้พากันย้ายออก บ้างก็เสียชีวิต บางคนถูกจำคุกในข้อบุกรุกป่าหรือแม้กระทั่งสูญหาย" |
| หลายปีที่ผ่านมา @@ชาวชุมชนโคกยาวหลายคนได้พากันย้ายออก @@บ้างก็เสียชีวิต @@บางคนถูกจำคุกในข้อบุกรุกป่าหรือแม้กระทั่งสูญหาย@@ |
|
|
| **Part-Of-Speech tagging**:: |
|
|
| pythainlp tagg pos [-s SEPARATOR] TEXT |
|
|
| *Example*:: |
|
|
| $ thainlp tag pos -s . ผม.ไม่.กิน.เผ็ด |
|
|
| **Soundex**:: |
|
|
| thainlp soundex [-a udom83|lk82|metasound] TEXT |
| |
| *Example*:: |
| |
| $ thainlp soundex วรรณ |
| ว330000 |
| |
| $ thainlp soundex -a lk82 วัน |
| ว4000 |
| |
| $ thainlp soundex -a lk82 วรรณ |
| ว4000 |
| |
| **Corpus management**:: |
| |
| thainlp data <catalog|info|get|rm|path> |
| |
| *Example*:: |
| |
| $ thainlp data path |
| /Users/user1/pythainlp-data |
| |
| $ thainlp data catalog |
| Dataset/corpus available for download: |
| - crfcut 0.1 |
| - thai-g2p 0.1 (Local: 0.1) |
| - thai2fit_wv 0.1 |
| - thainer-1-3 1.3 |
| |
| $ thainlp data get thai2fit_wv |
| Corpus: thai2fit_wv |
| - Downloading: thai2fit_wv 0.1 |
| 36%|█████████████████▉ | |
|
|
| $ thainlp data --help |
|
|
| **Benchmark**:: |
|
|
| thainlp benchmark word-tokenization --input-file <source> --test-file <label> [--save-details] |
|
|
| *Example*:: |
|
|
| $thainlp benchmark word-tokenization --input-file wisesight-1000-deepcut.txt --test-file wisesight-1000.label |
| Benchmarking wisesight-1000-deepcut.txt against .wisesight-1000.label with 993 samples in total |
| ============== Benchmark Result ============== |
| char_level:tp 17654.0000 |
| char_level:fn 1153.0000 |
| char_level:tn 50755.0000 |
| char_level:fp 1478.0000 |
| char_level:precision 0.9227 |
| char_level:recall 0.9387 |
| word_level:total_words_in_sample 19132.0000 |
| word_level:total_words_in_ref_sample 18807.0000 |
| word_level:correctly_tokenised_words 15637.0000 |
| word_level:precision 0.8173 |
| word_level:recall 0.8314 |
|
|
| **Help**:: |
|
|
| thainlp --help |
|
|