RichardErkhov
commited on
Commit
•
84bbb17
1
Parent(s):
900fd4e
uploaded readme
Browse files
README.md
ADDED
@@ -0,0 +1,91 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
Quantization made by Richard Erkhov.
|
2 |
+
|
3 |
+
[Github](https://github.com/RichardErkhov)
|
4 |
+
|
5 |
+
[Discord](https://discord.gg/pvy7H8DZMG)
|
6 |
+
|
7 |
+
[Request more models](https://github.com/RichardErkhov/quant_request)
|
8 |
+
|
9 |
+
|
10 |
+
polish-qa-v2 - bnb 8bits
|
11 |
+
- Model creator: https://huggingface.co/radlab/
|
12 |
+
- Original model: https://huggingface.co/radlab/polish-qa-v2/
|
13 |
+
|
14 |
+
|
15 |
+
|
16 |
+
|
17 |
+
Original model description:
|
18 |
+
---
|
19 |
+
license: cc-by-4.0
|
20 |
+
datasets:
|
21 |
+
- clarin-pl/poquad
|
22 |
+
language:
|
23 |
+
- pl
|
24 |
+
library_name: transformers
|
25 |
+
---
|
26 |
+
# Model Card
|
27 |
+
Extractive Question-Answer model for polish. Extractive means, that the most relevant
|
28 |
+
chunk of the text is returned as answer from the context for the given question.
|
29 |
+
|
30 |
+
## Model Details
|
31 |
+
|
32 |
+
- **Model name:** `radlab/polish-qa-v2`
|
33 |
+
- **Developed by:** [radlab.dev](https://radlab.dev)
|
34 |
+
- **Shared by:** [radlab.dev](https://radlab.dev)
|
35 |
+
- **Model type:** QA
|
36 |
+
- **Language(s) (NLP):** PL
|
37 |
+
- **License:** CC-BY-4.0
|
38 |
+
- **Finetuned from model:** [sdadas/polish-roberta-large-v2](https://huggingface.co/sdadas/polish-roberta-large-v2)
|
39 |
+
- **Maxiumum context size:** 512 tokens
|
40 |
+
|
41 |
+
## Model Usage
|
42 |
+
|
43 |
+
Simple model usage with huggingface library:
|
44 |
+
|
45 |
+
```python
|
46 |
+
from transformers import pipeline
|
47 |
+
|
48 |
+
model_path = "radlab/polish-qa-v2"
|
49 |
+
|
50 |
+
question_answerer = pipeline(
|
51 |
+
"question-answering",
|
52 |
+
model=model_path
|
53 |
+
)
|
54 |
+
|
55 |
+
question = "Jakie silniki posiadał okręt?"
|
56 |
+
context = """Okręt był napędzany przez trzy trzycylindrowe maszyny parowe potrójnego rozprężania, które
|
57 |
+
napędzały poprzez wały napędowe trzy śruby napędowe (dwie trójskrzydłowe
|
58 |
+
zewnętrzne o średnicy 4,5 metra i czteroskrzydłową o średnicy 4,2 metra).
|
59 |
+
Para była dostarczana przez cztery kotły wodnorurkowe typu Marine,
|
60 |
+
wyposażone łącznie w osiem palenisk i osiem kotłów cylindrycznych,
|
61 |
+
które miały łącznie 32 paleniska. Ciśnienie robocze kotłów wynosiło 12 at,
|
62 |
+
a ich łączna powierzchnia grzewcza 3560 m². Wszystkie kotły były opalane węglem,
|
63 |
+
którego normalny zapas wynosił 650, a maksymalny 1070 ton.
|
64 |
+
Nominalna moc siłowni wynosiła 13 000 KM (maksymalnie 13 922 KM przy 108 obr./min),
|
65 |
+
co pozwalało na osiągnięcie prędkości maksymalnej od 17,5 do 17,6 węzła.
|
66 |
+
Zasięg wynosił 3420 mil morskich przy prędkości 10 węzłów. Zużycie węgla przy mocy 10 000 KM
|
67 |
+
wynosiło około 11 ton na godzinę, a przy mocy maksymalnej 16 ton na godzinę.
|
68 |
+
"""
|
69 |
+
|
70 |
+
print(
|
71 |
+
question_answerer(
|
72 |
+
question=question,
|
73 |
+
context=context.replace("\n", " ")
|
74 |
+
)
|
75 |
+
)
|
76 |
+
```
|
77 |
+
|
78 |
+
with the sample output:
|
79 |
+
|
80 |
+
```json
|
81 |
+
{
|
82 |
+
'score': 0.612459123134613,
|
83 |
+
'start': 25,
|
84 |
+
'end': 84,
|
85 |
+
'answer': ' trzy trzycylindrowe maszyny parowe potrójnego rozprężania,'
|
86 |
+
}
|
87 |
+
```
|
88 |
+
|
89 |
+
|
90 |
+
Link to the article on our [blog](https://radlab.dev/2024/04/15/ekstrakcyjne-qa-nasz-model-polish-qa-v2/) in polish.
|
91 |
+
|