rhaymison commited on
Commit
4b5e73f
1 Parent(s): f7d4026

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +107 -0
README.md CHANGED
@@ -12,3 +12,110 @@ language:
12
  pipeline_tag: text-generation
13
  base_model: mistralai/Mixtral-8x7B-Instruct-v0.1
14
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
12
  pipeline_tag: text-generation
13
  base_model: mistralai/Mixtral-8x7B-Instruct-v0.1
14
  ---
15
+
16
+ # Mistral-8x7b-portuguese-luana
17
+
18
+ <p align="center">
19
+ <img src="https://raw.githubusercontent.com/rhaymisonbetini/huggphotos/main/luana8x7.webp" width="50%" style="margin-left:'auto' margin-right:'auto' display:'block'"/>
20
+ </p>
21
+
22
+
23
+ This model was trained with a superset of 200,000 instructions in Portuguese.
24
+ The model comes to help fill the gap in models in Portuguese. Tuned from the Mistral 7b in Portuguese, the model was adjusted mainly for instructional tasks.
25
+
26
+ # How to use
27
+
28
+ ### A100 GPU
29
+
30
+ You can use the model in its normal form up to 4-bit quantization. Below we will use both approaches.
31
+ Remember that verbs are important in your prompt. Tell your model how to act or behave so that you can guide them along the path of their response.
32
+ Important points like these help models (even smaller models like 7b) to perform much better.
33
+
34
+ ```python
35
+ !pip install -q -U transformers
36
+ !pip install -q -U accelerate
37
+ !pip install -q -U bitsandbytes
38
+
39
+ from transformers import AutoModelForCausalLM, AutoTokenizer, TextStreamer
40
+ model = AutoModelForCausalLM.from_pretrained("rhaymison/Mistral-8x7b-portuguese-luana", device_map= {"": 0})
41
+ tokenizer = AutoTokenizer.from_pretrained("rhaymison/Mistral-8x7b-portuguese-luana")
42
+ model.eval()
43
+
44
+ ```
45
+
46
+ You can use with Pipeline but in this example i will use such as Streaming
47
+ ```python
48
+
49
+ inputs = tokenizer([f"""<s>[INST] Abaixo está uma instrução que descreve uma tarefa, juntamente com uma entrada que fornece mais contexto.
50
+ Escreva uma resposta que complete adequadamente o pedido.
51
+ ### instrução: aja como um professor de matemática e me explique porque 2 + 2 = 4.
52
+ [/INST]"""], return_tensors="pt")
53
+
54
+ inputs.to(model.device)
55
+
56
+ streamer = TextStreamer(tokenizer, skip_prompt=True, skip_special_tokens=True)
57
+ _ = model.generate(**inputs, streamer=streamer, max_new_tokens=200)
58
+
59
+ ```
60
+
61
+ If you are having a memory problem such as "CUDA Out of memory", you should use 4-bit or 8-bit quantization.
62
+ For the complete model in colab you will need the A100.
63
+ If you want to use 4bits or 8bits, T4 or L4 will already solve the problem.
64
+
65
+ # 4bits example
66
+
67
+ ```python
68
+ from transformers import BitsAndBytesConfig
69
+ import torch
70
+ nb_4bit_config = BitsAndBytesConfig(
71
+ load_in_4bit=True,
72
+ bnb_4bit_quant_type="nf4",
73
+ bnb_4bit_compute_dtype=torch.bfloat16,
74
+ bnb_4bit_use_double_quant=True
75
+ )
76
+
77
+ model = AutoModelForCausalLM.from_pretrained(
78
+ base_model,
79
+ quantization_config=bnb_config,
80
+ device_map={"": 0}
81
+ )
82
+
83
+ ```
84
+
85
+ ### LangChain
86
+
87
+ Extracting a langChain conversation with a drug petition document as context.
88
+
89
+ <div style="background-color: #f0f0f0; padding: 20px;">
90
+ <p><strong style="color: blue;">Human:</strong> Bom dia. Me informe quais medicamentos são solicitados no texto. Informe também a posologia e o período de tratamento.</p>
91
+
92
+ <p><strong style="color: green;">Luana:</strong> Olá! No texto são solicitados os medicamentos <span style="color: red;">DULOXETINA 30mg</span>, <span style="color: red;">PREGABALINA 100mg</span> e <span style="color: red;">ROSUVASTATINA 10mg</span>. A posologia e o período de tratamento não são especificados, pois isso deve ser indicado periodicamente pelo médico.</p>
93
+
94
+ <p><strong style="color: blue;">Human:</strong> Perfeito. E qual é o valor da causa informado no documento?</p>
95
+
96
+ <p><strong style="color: green;">Luana:</strong> O valor da causa informado no documento é R$ 6.132,00 (seis mil cento e três).</p>
97
+
98
+ <p><strong style="color: blue;">Human:</strong> Foi mencionado no texto alguma lei?</p>
99
+
100
+ <p><strong style="color: green;">Luana:</strong> Sim, a Lei Complementar nº 80/94 é mencionada no texto. Ela se refere às prerrogativas institucionais da Defensoria Pública, incluindo a intimação pessoal de seus membros, a contagem em dobro dos prazos processuais, a manifestação por cotas nos autos e a dispensa da procuração.</p>
101
+
102
+ <p><strong style="color: blue;">Human:</strong> Perfeito! Muito obrigado pela ajuda. Por hora é somente isso =]</p>
103
+
104
+ <p><strong style="color: green;">Luana:</strong> Foi um prazer ajudar! Se você tiver outras dúvidas ou necessitar de mais informações, não hesite em perguntar. Tenha um bom dia!</p>
105
+ </div>
106
+
107
+
108
+
109
+ ### Comments
110
+
111
+ Any idea, help or report will always be welcome.
112
+
113
+ email: rhaymisoncristian@gmail.com
114
+
115
+ <div style="display:flex; flex-direction:row; justify-content:left">
116
+ <a href="https://www.linkedin.com/in/heleno-betini-2b3016175/" target="_blank">
117
+ <img src="https://img.shields.io/badge/LinkedIn-0077B5?style=for-the-badge&logo=linkedin&logoColor=white">
118
+ </a>
119
+ <a href="https://github.com/rhaymisonbetini" target="_blank">
120
+ <img src="https://img.shields.io/badge/GitHub-100000?style=for-the-badge&logo=github&logoColor=white">
121
+ </a>