import streamlit as st import replicate import numpy as np st.title("Ayoye, c'est bien hot ça!!") # Création d'un conteneur pour les messages du chat with st.container(): # Initialisation d'une liste pour stocker les messages if 'messages' not in st.session_state: st.session_state['messages'] = [] # Formulaire pour entrer une question with st.form("chat_input"): user_input = st.text_input("Entrez votre question ici:", "") submitted = st.form_submit_button("Envoyer") if submitted and user_input: # Ajout de la question de l'utilisateur st.session_state['messages'].append(f"Vous: {user_input}") # Génération de la réponse via le modèle Replicate output = replicate.run( "meta/meta-llama-3-8b-instruct", input={ "top_p": 0.9, "prompt": user_input, "max_tokens": 2053, "min_tokens": 50, "temperature": 0.3, "prompt_template": "system\n\nYou are a helpful assistantuser\n\n{prompt}assistant\n\n", "presence_penalty": 0, "frequency_penalty": 0 } ) # Affichage de la réponse du modèle st.session_state['messages'].append(f"Bot: {output}") # Affichage des messages précédents for message in st.session_state['messages']: st.text(message)