Update README.md
Browse files
README.md
CHANGED
@@ -52,10 +52,10 @@ If you use this model, please cite the following paper:
|
|
52 |
## Usage
|
53 |
|
54 |
```python
|
55 |
-
from transformers import GPTNeoXForCausalLM,
|
56 |
|
57 |
model = GPTNeoXForCausalLM.from_pretrained("NYTK/PULI-GPTrio")
|
58 |
-
tokenizer =
|
59 |
prompt = "Elmesélek egy történetet a nyelvtechnológiáról."
|
60 |
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
|
61 |
|
@@ -72,10 +72,10 @@ print(gen_text)
|
|
72 |
## Usage with pipeline
|
73 |
|
74 |
```python
|
75 |
-
from transformers import pipeline, GPTNeoXForCausalLM,
|
76 |
|
77 |
model = GPTNeoXForCausalLM.from_pretrained("NYTK/PULI-GPTrio")
|
78 |
-
tokenizer =
|
79 |
prompt = "Elmesélek egy történetet a nyelvtechnológiáról."
|
80 |
generator = pipeline(task="text-generation", model=model, tokenizer=tokenizer)
|
81 |
|
|
|
52 |
## Usage
|
53 |
|
54 |
```python
|
55 |
+
from transformers import GPTNeoXForCausalLM, AutoTokenizer
|
56 |
|
57 |
model = GPTNeoXForCausalLM.from_pretrained("NYTK/PULI-GPTrio")
|
58 |
+
tokenizer = AutoTokenizer.from_pretrained("NYTK/PULI-GPTrio")
|
59 |
prompt = "Elmesélek egy történetet a nyelvtechnológiáról."
|
60 |
input_ids = tokenizer(prompt, return_tensors="pt").input_ids
|
61 |
|
|
|
72 |
## Usage with pipeline
|
73 |
|
74 |
```python
|
75 |
+
from transformers import pipeline, GPTNeoXForCausalLM, AutoTokenizer
|
76 |
|
77 |
model = GPTNeoXForCausalLM.from_pretrained("NYTK/PULI-GPTrio")
|
78 |
+
tokenizer = AutoTokenizer.from_pretrained("NYTK/PULI-GPTrio")
|
79 |
prompt = "Elmesélek egy történetet a nyelvtechnológiáról."
|
80 |
generator = pipeline(task="text-generation", model=model, tokenizer=tokenizer)
|
81 |
|