update readme
Browse files
README.md
CHANGED
@@ -19,8 +19,17 @@ inference: false
|
|
19 |
|
20 |
![rinna-icon](./rinna.png)
|
21 |
|
|
|
22 |
This repository provides a Japanese GPT-NeoX model of 3.6 billion parameters. The model was trained using code based on [EleutherAI/gpt-neox](https://github.com/EleutherAI/gpt-neox).
|
23 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
24 |
# How to use the model
|
25 |
|
26 |
~~~~python
|
@@ -53,14 +62,6 @@ print(output)
|
|
53 |
"""西田幾多郎は、この「絶対矛盾的自己同一」を「世界の自己同一」と置きかえ、さらに西田哲学を出発点として「絶対無」を「世界の成立」に変え、世界と自己を一つの統一物とみなす哲学として展開する。この世界と自己は絶対矛盾的自己同一として同一の性質を有し、同じ働きをする。西田哲学においては、この世界と自己は矛盾しあうのではなく、同一の性質をもっている。この世界と自己は同一である。絶対"""
|
54 |
~~~~
|
55 |
|
56 |
-
# Model architecture
|
57 |
-
A 36-layer, 2816-hidden-size transformer-based language model.
|
58 |
-
|
59 |
-
# Training
|
60 |
-
The model was trained on around **312.5B** tokens from [Japanese CC-100](http://data.statmt.org/cc-100/ja.txt.xz), [Japanese C4](https://huggingface.co/datasets/mc4), and [Japanese Wikipedia](https://dumps.wikimedia.org/other/cirrussearch) to optimize a traditional language modelling objective.
|
61 |
-
|
62 |
-
A final validation perplexity of **8.68** has been reached.
|
63 |
-
|
64 |
# Tokenization
|
65 |
The model uses a [sentencepiece](https://github.com/google/sentencepiece)-based tokenizer.
|
66 |
* The tokenizer has a vocabulary size of 32,000.
|
@@ -88,5 +89,9 @@ The model uses a [sentencepiece](https://github.com/google/sentencepiece)-based
|
|
88 |
# 'გამარ[UNK]ობა 吾輩は 猫である </s>'
|
89 |
~~~
|
90 |
|
|
|
|
|
|
|
|
|
91 |
# Licenese
|
92 |
[The MIT license](https://opensource.org/licenses/MIT)
|
|
|
19 |
|
20 |
![rinna-icon](./rinna.png)
|
21 |
|
22 |
+
# Overview
|
23 |
This repository provides a Japanese GPT-NeoX model of 3.6 billion parameters. The model was trained using code based on [EleutherAI/gpt-neox](https://github.com/EleutherAI/gpt-neox).
|
24 |
|
25 |
+
## Model architecture
|
26 |
+
A 36-layer, 2816-hidden-size transformer-based language model.
|
27 |
+
|
28 |
+
# Pre-training
|
29 |
+
The model was trained on around **312.5B** tokens from [Japanese CC-100](http://data.statmt.org/cc-100/ja.txt.xz), [Japanese C4](https://huggingface.co/datasets/mc4), and [Japanese Wikipedia](https://dumps.wikimedia.org/other/cirrussearch) to optimize a traditional language modelling objective.
|
30 |
+
|
31 |
+
A final validation perplexity of **8.68** has been reached.
|
32 |
+
|
33 |
# How to use the model
|
34 |
|
35 |
~~~~python
|
|
|
62 |
"""西田幾多郎は、この「絶対矛盾的自己同一」を「世界の自己同一」と置きかえ、さらに西田哲学を出発点として「絶対無」を「世界の成立」に変え、世界と自己を一つの統一物とみなす哲学として展開する。この世界と自己は絶対矛盾的自己同一として同一の性質を有し、同じ働きをする。西田哲学においては、この世界と自己は矛盾しあうのではなく、同一の性質をもっている。この世界と自己は同一である。絶対"""
|
63 |
~~~~
|
64 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
65 |
# Tokenization
|
66 |
The model uses a [sentencepiece](https://github.com/google/sentencepiece)-based tokenizer.
|
67 |
* The tokenizer has a vocabulary size of 32,000.
|
|
|
89 |
# 'გამარ[UNK]ობა 吾輩は 猫である </s>'
|
90 |
~~~
|
91 |
|
92 |
+
# Authors
|
93 |
+
* [Tianyu Zhao](https://huggingface.co/tianyuz)
|
94 |
+
* [Kei Sawada](https://huggingface.co/keisawada)
|
95 |
+
|
96 |
# Licenese
|
97 |
[The MIT license](https://opensource.org/licenses/MIT)
|