Spaces:
Runtime error
Runtime error
from transformers import AutoModelForCausalLM, AutoTokenizer | |
import gradio as gr | |
# Charger le tokenizer et le modèle DialoGPT pré-entraînés | |
tokenizer = AutoTokenizer.from_pretrained("microsoft/DialoGPT-small") | |
model = AutoModelForCausalLM.from_pretrained("microsoft/DialoGPT-small") | |
def generate_text(prompt): | |
# Encoder le texte d'entrée pour le modèle | |
encoded_input = tokenizer.encode(prompt + tokenizer.eos_token, return_tensors="pt") | |
# Générer une suite de texte à partir du modèle | |
output = model.generate( | |
encoded_input, max_length=1000, pad_token_id=tokenizer.eos_token_id | |
) | |
# Décoder et retourner la sortie générée | |
generated_text = tokenizer.decode(output[0], skip_special_tokens=True) | |
return generated_text | |
# Créer l'interface Gradio | |
interface = gr.Interface( | |
fn=generate_text, | |
inputs="text", | |
outputs="text", | |
title="Chatbot avec DialoGPT", | |
description="Entrez votre prompt pour générer du texte avec DialoGPT. \n NB : Le chatbot ne reconnait que l'anglais", | |
) | |
# Lancer l'interface Gradio | |
if __name__ == "__main__": | |
interface.launch( | |
quiet=True, | |
) | |