Pierre918's picture
Update app.py
66a232c verified
import sys
import io
import pandas as pd
from langchain_experimental.agents.agent_toolkits import create_csv_agent
from langchain_anthropic import ChatAnthropic
import gradio as gr
import os
from dotenv import load_dotenv
load_dotenv()
print(os.getenv("ANTHROPIC_API_KEY"))
# Configuration du modèle Anthropic
llm = ChatAnthropic(
model="claude-3-7-sonnet-20250219",#claude-3-5-sonnet-20241022",
temperature=0.1,
api_key=os.getenv("ANTHROPIC_API_KEY")
)
# Liste des fichiers CSV disponibles
items = [
"Contacts Prescripteurs-Ensemble des données.csv",
"Lieux-Ensemble des données.csv",
"Thèmes de séjour-Ensemble des données.csv",
"Participants-Ensemble des données.csv",
"Séjours-Séjours 2025 - Réunion équipe.csv"
]
# Fonction pour interroger les données CSV
def query_data(query, csv_file_path):
# Rediriger la sortie standard vers un buffer
old_stdout = sys.stdout
new_stdout = io.StringIO()
sys.stdout = new_stdout
# Créer l'agent et invoquer la requête
agent = create_csv_agent(
llm,
csv_file_path,
verbose=True,
return_intermediate_steps=True,
max_iterations=8,
allow_dangerous_code=True,
handle_parsing_errors=True,
include_df_in_prompt=False,
# number_of_head_rows=1
)
try:
response = agent.invoke(f"df.columns : \n{pd.read_csv(csv_file_path).columns}\n\n"+query)
# Récupérer la sortie de la console
console_output = new_stdout.getvalue()
# Restaurer la sortie standard
sys.stdout = old_stdout
print(response)
# Retourner la réponse et la sortie de la console
return {
"output": response["output"],
"console_output":""
# "console_output": response['intermediate_steps']
}
except Exception as e:
console_output = new_stdout.getvalue()
# Restaurer la sortie standard
sys.stdout = old_stdout
# Retourner la réponse et la sortie de la console
return {
"output": f"**Error :** {e}",
"console_output": console_output+"\n"
}
# Fonction de chat
def chat(question, csv_file_path, chat_history):
csv_file_path +=".csv"
# Appeler la fonction query_data
result = query_data(question, csv_file_path)
# Ajouter la question, la réponse finale et la sortie de la console à l'historique du chat
chat_history.append((question, f"{result['console_output']}{result['output']}"))
# Retourner l'historique mis à jour
return chat_history
# Création de l'interface Gradio
with gr.Blocks() as demo:
gr.Markdown("""# Your airtable assistant
Les conversations ne sont pas encore disponibles.""")
with gr.Row():
chatbot = gr.Chatbot(label="Chat") # Composant Chatbot pour afficher les messages
with gr.Row(): # Une ligne pour organiser les composants côte à côte
with gr.Column(): # Colonne pour la question
question = gr.Textbox(label="Posez votre question")
submit_btn = gr.Button("Envoyer")
with gr.Column(): # Colonne pour le dropdown
dropdown = gr.Dropdown(choices=[elt[:-4] for elt in items], label="Sélectionnez une table")
# Initialiser l'historique du chat
chat_history = gr.State([]) # Utilisé pour stocker l'historique des messages
# Lier les composants à la fonction de chat
submit_btn.click(
chat, # Fonction à appeler
inputs=[question, dropdown, chat_history], # Entrées
outputs=chatbot # Sortie
)
# Lancer l'interface
demo.launch(inbrowser=True)