import gradio as gr from transformers import AutoModelForCausalLM, AutoTokenizer import torch # Charger ton modèle Hugging Face model_name = "rinogeek/EcoMind" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) def generate_response(prompt): inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=100) return tokenizer.decode(outputs[0], skip_special_tokens=True) # Interface Gradio iface = gr.Interface( fn=generate_response, inputs="text", outputs="text", title="EcoMind AI", description=""" EcoMind est un modèle d’IA francophone développé par BlackBenAI comme projet pilote. Son objectif : tester nos capacités à entraîner et déployer des modèles spécialisés dans un domaine précis. Le succès d’EcoMind démontre que nous pouvons désormais créer des modèles pour les langues locales d’Afrique, ouvrant la voie à des IA adaptées aux besoins du continent. ⚠️ Pour de meilleurs résultats : Utilisez vos prompts uniquement en français. Posez des questions dans le domaine du corpus CoFiF : rédaction, dialogues et contenu francophone. Les prompts hors sujet peuvent générer des réponses incohérentes. 🔗 Dataset source : https://huggingface.co/datasets/FrancophonIA/CoFiF 🔗 Documentation : https://github.com/CoFiF/Corpus """ ) iface.launch(share=True)