from transformers import AutoModelForCausalLM, AutoTokenizer import gradio as gr # Charger le tokenizer et le modèle DialoGPT pré-entraînés tokenizer = AutoTokenizer.from_pretrained("microsoft/DialoGPT-small") model = AutoModelForCausalLM.from_pretrained("microsoft/DialoGPT-small") def generate_text(prompt): # Encoder le texte d'entrée pour le modèle encoded_input = tokenizer.encode(prompt + tokenizer.eos_token, return_tensors="pt") # Générer une suite de texte à partir du modèle output = model.generate( encoded_input, max_length=1000, pad_token_id=tokenizer.eos_token_id ) # Décoder et retourner la sortie générée generated_text = tokenizer.decode(output[0], skip_special_tokens=True) return generated_text # Créer l'interface Gradio interface = gr.Interface( fn=generate_text, inputs="text", outputs="text", title="Chatbot avec DialoGPT", description="Entrez votre prompt pour générer du texte avec DialoGPT. \n NB : Le chatbot ne reconnait que l'anglais", ) # Lancer l'interface Gradio if __name__ == "__main__": interface.launch( quiet=True, )