llama3 / app.py
martianband1t's picture
Update app.py
ccffbaa verified
raw
history blame
No virus
1.53 kB
import streamlit as st
import replicate
import numpy as np
st.title("Ayoye, c'est bien hot ça!!")
# Création d'un conteneur pour les messages du chat
with st.container():
# Initialisation d'une liste pour stocker les messages
if 'messages' not in st.session_state:
st.session_state['messages'] = []
# Formulaire pour entrer une question
with st.form("chat_input"):
user_input = st.text_input("Entrez votre question ici:", "")
submitted = st.form_submit_button("Envoyer")
if submitted and user_input:
# Ajout de la question de l'utilisateur
st.session_state['messages'].append(f"Vous: {user_input}")
# Génération de la réponse via le modèle Replicate
output = replicate.run(
"meta/meta-llama-3-8b-instruct",
input={
"top_p": 0.9,
"prompt": user_input,
"max_tokens": 2053,
"min_tokens": 50,
"temperature": 0.3,
"prompt_template": "system\n\nYou are a helpful assistantuser\n\n{prompt}assistant\n\n",
"presence_penalty": 0,
"frequency_penalty": 0
}
)
# Affichage de la réponse du modèle
st.session_state['messages'].append(f"Bot: {output}")
# Affichage des messages précédents
for message in st.session_state['messages']:
st.text(message)