Spaces:
Sleeping
Sleeping
Update app.py
Browse files
app.py
CHANGED
@@ -1,5 +1,7 @@
|
|
1 |
import streamlit as st
|
2 |
from tensorflow.keras.models import load_model
|
|
|
|
|
3 |
import numpy as np
|
4 |
from transformers import logging
|
5 |
|
@@ -12,6 +14,10 @@ st.title('Chat with Me')
|
|
12 |
# Model yükleme (burada dil modeli veya sohbet modeli olmalı)
|
13 |
model = load_model('text_classification_model.h5')
|
14 |
|
|
|
|
|
|
|
|
|
15 |
# Chat history
|
16 |
if 'chat_history' not in st.session_state:
|
17 |
st.session_state.chat_history = []
|
@@ -21,10 +27,10 @@ soru = st.text_input('Sor:')
|
|
21 |
|
22 |
# Yanıt üretme fonksiyonu (modelinize göre bu kısım değişebilir)
|
23 |
def generate_response(input_text):
|
24 |
-
#
|
25 |
-
|
26 |
-
|
27 |
-
prediction = model.predict(
|
28 |
response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
|
29 |
return response
|
30 |
|
|
|
1 |
import streamlit as st
|
2 |
from tensorflow.keras.models import load_model
|
3 |
+
from tensorflow.keras.preprocessing.text import Tokenizer
|
4 |
+
from tensorflow.keras.preprocessing.sequence import pad_sequences
|
5 |
import numpy as np
|
6 |
from transformers import logging
|
7 |
|
|
|
14 |
# Model yükleme (burada dil modeli veya sohbet modeli olmalı)
|
15 |
model = load_model('text_classification_model.h5')
|
16 |
|
17 |
+
# Tokenizer yükleme veya tanımlama
|
18 |
+
tokenizer = Tokenizer(num_words=10000) # num_words, kelime sayısı limitidir, modelinize göre ayarlayabilirsiniz
|
19 |
+
tokenizer.fit_on_texts(['örnek metin']) # Tokenizer'ı eğitmek için örnek bir metin kullanabilirsiniz
|
20 |
+
|
21 |
# Chat history
|
22 |
if 'chat_history' not in st.session_state:
|
23 |
st.session_state.chat_history = []
|
|
|
27 |
|
28 |
# Yanıt üretme fonksiyonu (modelinize göre bu kısım değişebilir)
|
29 |
def generate_response(input_text):
|
30 |
+
# Metni tokenize et ve sekanslara dönüştür
|
31 |
+
sequences = tokenizer.texts_to_sequences([input_text])
|
32 |
+
padded_sequences = pad_sequences(sequences, maxlen=100) # maxlen, modelin beklediği giriş boyutuna göre ayarlanmalıdır
|
33 |
+
prediction = model.predict(padded_sequences)
|
34 |
response = "Bu bir örnek yanıttır." # Modelden gelen yanıtı buraya yazın
|
35 |
return response
|
36 |
|