|
--- |
|
license: apache-2.0 |
|
license_link: https://www.apache.org/licenses/LICENSE-2.0 |
|
language: |
|
- fr |
|
base_model: |
|
- unsloth/Meta-Llama-3.1-8B |
|
pipeline_tag: text-generation |
|
library_name: transformers |
|
tags: |
|
- fiscalité |
|
- génération-de-texte |
|
- français |
|
--- |
|
|
|
# Nom de votre modèle |
|
|
|
## Introduction |
|
|
|
Décrivez ici le but et les caractéristiques principales de votre modèle. Par exemple, s'il est spécialisé dans la génération de textes liés à la fiscalité en français. |
|
|
|
## Configuration requise |
|
|
|
Indiquez les versions des bibliothèques nécessaires, comme `transformers`, et toute autre dépendance. |
|
|
|
## Démarrage rapide |
|
|
|
Fournissez un exemple de code montrant comment charger le modèle et générer du texte : |
|
|
|
```python |
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
|
|
model_name = "Aktraiser/model_test1" |
|
|
|
model = AutoModelForCausalLM.from_pretrained( |
|
model_name, |
|
torch_dtype="auto", |
|
device_map="auto" |
|
) |
|
tokenizer = AutoTokenizer.from_pretrained(model_name) |
|
|
|
prompt = "Votre prompt ici." |
|
inputs = tokenizer(prompt, return_tensors="pt").to(model.device) |
|
|
|
generated_ids = model.generate( |
|
**inputs, |
|
max_new_tokens=512 |
|
) |
|
|
|
response = tokenizer.decode(generated_ids[0], skip_special_tokens=True) |
|
print(response) |