Spaces:
Sleeping
Sleeping
import streamlit as st | |
import replicate | |
import numpy as np | |
st.title("Ayoye, c'est bien hot ça!!") | |
# Création d'un conteneur pour les messages du chat | |
with st.container(): | |
# Initialisation d'une liste pour stocker les messages | |
if 'messages' not in st.session_state: | |
st.session_state['messages'] = [] | |
# Formulaire pour entrer une question | |
with st.form("chat_input"): | |
user_input = st.text_input("Entrez votre question ici:", "") | |
submitted = st.form_submit_button("Envoyer") | |
if submitted and user_input: | |
# Ajout de la question de l'utilisateur | |
st.session_state['messages'].append(f"Vous: {user_input}") | |
# Génération de la réponse via le modèle Replicate | |
output = replicate.run( | |
"meta/meta-llama-3-8b-instruct", | |
input={ | |
"top_p": 0.9, | |
"prompt": user_input, | |
"max_tokens": 2053, | |
"min_tokens": 50, | |
"temperature": 0.3, | |
"prompt_template": "system\n\nYou are a helpful assistantuser\n\n{prompt}assistant\n\n", | |
"presence_penalty": 0, | |
"frequency_penalty": 0 | |
} | |
) | |
# Affichage de la réponse du modèle | |
st.session_state['messages'].append(f"Bot: {output}") | |
# Affichage des messages précédents | |
for message in st.session_state['messages']: | |
st.text(message) | |