Nom de votre modèle

Introduction

Décrivez ici le but et les caractéristiques principales de votre modèle. Par exemple, s'il est spécialisé dans la génération de textes liés à la fiscalité en français.

Configuration requise

Indiquez les versions des bibliothèques nécessaires, comme transformers, et toute autre dépendance.

Démarrage rapide

Fournissez un exemple de code montrant comment charger le modèle et générer du texte :

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Aktraiser/model_test1"

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "Votre prompt ici."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **inputs,
    max_new_tokens=512
)

response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(response)
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for Aktraiser/model_test1

Finetuned
(155)
this model