test-talkHelper / app.py
Soueid-ahmed's picture
Update app.py
976d0c9 verified
from transformers import GPT2LMHeadModel, GPT2Tokenizer
def generate_text(prompt, model_name="gpt2-medium", max_length=100, num_return_sequences=1):
# Charger le modèle et le tokenizer
tokenizer = GPT2Tokenizer.from_pretrained('rombodawg/test_dataset_Codellama-3-8B')
model = GPT2LMHeadModel.from_pretrained('rombodawg/test_dataset_Codellama-3-8B')
# Encoder le prompt en tokens
input_ids = tokenizer.encode(prompt, return_tensors="pt")
# Générer du texte
output = model.generate(
input_ids,
max_length=max_length,
num_return_sequences=num_return_sequences,
no_repeat_ngram_size=2,
top_k=50,
top_p=0.95,
temperature=0.7,
pad_token_id=tokenizer.eos_token_id
)
# Décoder les résultats en texte
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
return generated_text
# Exemple d'utilisation
prompt = "Une fois dans une forêt sombre, un aventurier solitaire"
generated_text = generate_text(prompt)
print(generated_text)